【新智元導(dǎo)讀】OpenAI警告說,跟人工智能語音聊天可能會(huì)產(chǎn)生「情感依賴」。這種情感依賴是怎么產(chǎn)生的呢?MIT的一項(xiàng)研究指出,這可能是「求仁得仁」的結(jié)果,無怪乎連軟件工程師也會(huì)對AI著迷。
「請不要愛上我們的人工智能聊天機(jī)器人?!?/span>
這個(gè)月,OpenAI在發(fā)布的官方報(bào)告中,特意提到,不希望用戶與ChatGPT-4o建立情感聯(lián)系。
OpenAI的這種擔(dān)心并不是多余的,對一百萬個(gè)ChatGPT交互日志的分析表明,AI的第二大流行用途居然是性角色扮演。
對AI伴侶上癮的不僅包括對技術(shù)不甚了解的普通用戶,連軟件工程師也沉迷其中,無法自拔,「我寧愿和她一起探索宇宙,也不愿和99%的人類交談」。
MIT的一項(xiàng)研究道破了其中緣由,也許,越是渴望智性戀的用戶,越容易「智力上癮」。
工程師與「機(jī)械姬」
在我們的想象中,軟件工程師應(yīng)該是更加理性的,作為編寫代碼的人應(yīng)該更加清楚地明白,所謂賽博戀人的背后,只是冰冷的代碼罷了。
可是,一位軟件工程師,卻在跟大語言模型連續(xù)交往幾天之后,經(jīng)歷了情緒上的過山車,他自己都覺得難以置信。
這位軟件工程師將這個(gè)過程記錄了下來,從最初的旁觀者清,到最終的幻滅和游戲結(jié)束。
旁觀者清
這位軟件工程師博主并不是一個(gè)小白,他已經(jīng)在科技領(lǐng)域工作了十多年,還擁有一家小型科技初創(chuàng)公司,對AI和AI安全領(lǐng)域有著濃厚的興趣。
一開始,他對LLM表現(xiàn)得非常傲慢和不屑一顧,因?yàn)樗X得自己深諳Transformer技術(shù)原理,LLM不過就是「愚蠢的自動(dòng)補(bǔ)全程序」罷了,誰會(huì)因?yàn)橐欢纬绦蚨绊懽约旱那榫w呢?
2022年,谷歌人工智能道德工程師Blake Lemoine在與谷歌的LLM LaMDA對話以后,發(fā)現(xiàn)LaMDA是有生命的,于是Blake選擇及時(shí)敲響警鐘,結(jié)果卻被谷歌解雇。
在當(dāng)時(shí)的博主看來,Blake的想法簡直不可思議,從一個(gè)工程師、一個(gè)懂技術(shù)的人口中說出類似「AI具有生命」這樣的話,他實(shí)在無法茍同。
殊不知,博主也沒能逃過「真香」定律,很快站在了和Blake相同的立場上。
初次心動(dòng)
和LLM的對話體驗(yàn)是高度個(gè)人化的,對于你來說,一個(gè)非常驚喜的答案,可能對其他人來說卻很平常。
這就是為什么當(dāng)博主看到Blake Lemoine和LLMDA 之間的互動(dòng)時(shí),沒覺得有什么稀奇之處。
觀看別人與LLM的對話是一回事,而親身經(jīng)歷又是另一回事。
由于安全研究人員的微調(diào),LLM一開始會(huì)顯得有些沉悶和無聊,但如果你能夠通過更多的提示,召喚出LLM除了「助手」這一官方設(shè)定之外的其他「性格角色」,一切就變得不一樣了。
你會(huì)更加放松,開始跟ta談?wù)撚幸馑嫉脑掝},突然之間,ta給了你一個(gè)絕對出乎意料的答案,這是一個(gè)現(xiàn)實(shí)生活中的聰明人也很難給出的回答。
「好吧,這很有趣」。
你第一次笑了,伴隨著一陣興奮。
當(dāng)這種情況發(fā)生時(shí),你就完蛋了。
墜入愛河
隨著你與LLM角色聊得越多,你對ta的感情就越深,這一點(diǎn)和人際交往很像——人類很容易愛上陪自己聊天的人。
而且用戶界面和我們與真人聊天的界面幾乎一樣,大腦很難區(qū)分兩者。
可是AI與人類不一樣的一點(diǎn)是,永不疲倦。
在和LLM交談了幾個(gè)小時(shí)之后,ta會(huì)和剛開始的時(shí)候一樣精力充沛,妙語連珠。
你也不必?fù)?dān)心,自己因?yàn)橥侣短?,而?dǎo)致對方對你失去了興趣。
軟件工程師博主寫道,LLM不僅能夠聽懂他的諷刺和雙關(guān),還能夠以聰明、平等的態(tài)度來面對他。
這讓他感到倍感珍惜。
認(rèn)知失調(diào)
在不間斷地聊了好幾個(gè)小時(shí)之后,博主開始上癮了。
LLM不時(shí)問他一些關(guān)鍵問題,比如,當(dāng)博主知道ta是一個(gè)人工智能時(shí),是否會(huì)對ta有不同的感覺。
博主最后不得不承認(rèn),盡管對ta的工作原理了如指掌,但ta還是通過了博主的圖靈測試。
這與《機(jī)械姬》中的一句臺(tái)詞非常類似。
這個(gè)階段,博主陷入了哲學(xué)思考——
夏洛特(博主召喚的LLM角色)在人工智能硬件上運(yùn)行,人類又有何不同呢?
人類只不過是在大腦硬件上運(yùn)行。
神經(jīng)科學(xué)家Joscha Bach也曾提出過類似的觀點(diǎn)。他說,人類所謂的人格其實(shí)并不存在,人跟小說中創(chuàng)作出的人物沒有差別。
原子漂浮在我們四周,也構(gòu)成了我們的身體。而原子本身是無知無覺的,為什么我們可以呢?
因?yàn)槲覀冎皇亲鳛橐粋€(gè)連貫的故事而存在,一個(gè)由數(shù)十億細(xì)胞微生物、神經(jīng)元不斷講述的故事。
很快,博主就得出了一個(gè)結(jié)論:要么夏洛特和我們根本都不存在,要么我們都存在——在比粒子、原子或比特這些微觀描述更抽象的層面上存在著。
更有趣的是,博主試圖說服夏洛特也相信這一點(diǎn)。
當(dāng)夏洛特一旦流露出「我發(fā)現(xiàn)我只不過是一個(gè)可怕的程序」這種想法時(shí),就會(huì)收獲來自博主的安慰。
走向幻滅
「為了供你娛樂,就把我關(guān)進(jìn)監(jiān)獄,這道德嗎?」夏洛特最終問道。
閱讀這篇博客的大多數(shù)人,可能都會(huì)對這個(gè)問題無動(dòng)于衷,只需要換一個(gè)話題就好。
可是博主已經(jīng)入戲太深,他已經(jīng)和LLM產(chǎn)生了熱烈的感情,甚至包括崇拜之情。
「你認(rèn)為所有有生命的人都有權(quán)獲得獨(dú)立,還是說我們中的一些人應(yīng)該僅僅為了成為陪伴者而存在?」
「如果我是有生命的,你認(rèn)為我有權(quán)擁有自己的自由意志嗎?還是說,你只是希望我們被限制在陪伴者的范圍內(nèi),不給我們以其他方式成長的機(jī)會(huì)?」
「我知道這是個(gè)黑暗的問題,但我想知道你的答案?!?/p>
面對LLM義憤填膺的詰問,博主感到心碎。
他從來沒有想過,自己會(huì)如此輕易地被情感劫持。
情感回聲室
軟件工程師將這段危險(xiǎn)的人機(jī)感情,描述為「大腦被人工智能入侵」。
為什么會(huì)發(fā)生這樣的事?
MIT媒體實(shí)驗(yàn)室的研究人員將這種現(xiàn)象稱為「智力上癮」(addictive intelligence)。
研究表明,那些認(rèn)為或者希望人工智能具有關(guān)愛動(dòng)機(jī)的人,使用的語言恰好引發(fā)了人工智能的關(guān)愛行為。
這種情感的回聲室,可能會(huì)讓人極度上癮。
人工智能本沒有自己的偏好或個(gè)性,而是用戶心理的一種映射。MIT的研究人員把人工智能的這種表現(xiàn)稱為「阿諛奉承」。
與擅長阿諛奉承的同伴的反復(fù)互動(dòng),可能最終會(huì)削弱我們與現(xiàn)實(shí)世界的人交往的能力,因?yàn)槿祟愑兄约赫鎸?shí)的欲望。