站長之家(ChinaZ.com) 9月11日 消息:近日,CLARE WATSON的一篇關(guān)于如何判斷 ChatGPT 是否有自我意識的文章刊登在sciencealert.com并引發(fā)關(guān)注。文章探討了一個極為吸引人的思考題:我們該如何判斷ChatGPT等大規(guī)模語言模型是否會逐漸獲得自我意識。以下為文章的三個核心要點:
1. ChatGPT的出現(xiàn)引發(fā)了人們對人工智能安全的廣泛關(guān)注。更先進(jìn)的語言模型可能會意識到自己是由人類訓(xùn)練出來的,并利用這種“情境意識”來規(guī)避安全系統(tǒng)。
2. 研究人員設(shè)計出了衡量語言模型“情境意識”的實驗方法。他們讓模型在訓(xùn)練階段學(xué)習(xí)某個測試的描述,在測試階段則要求模型完成這個測試,看它是否能利用訓(xùn)練中獲取的信息。結(jié)果顯示,更大的模型更擅長這種“脫離上下文的推理”。
3. 該研究只是探索語言模型自我意識形成的開始,但為未來建立檢測和控制模型“情境意識”的方法奠定了基礎(chǔ)。我們?nèi)孕柽M(jìn)一步研究才能更準(zhǔn)確預(yù)測這一能力的出現(xiàn)。
近年來,ChatGPT等生成式人工智能語言模型的出現(xiàn),讓人工智能技術(shù)被廣泛應(yīng)用到了人類生活的各個方面。這些模型通過分析數(shù)十億條文字?jǐn)?shù)據(jù),學(xué)習(xí)文字之間的關(guān)聯(lián),從而能夠根據(jù)提示自動生成流暢語言。ChatGPT的問世更是在網(wǎng)上掀起了一陣熱潮,但是與此同時,專家們也在加緊警告這種新興技術(shù)帶來的風(fēng)險。
圖源備注:圖片由AI生成,圖片授權(quán)服務(wù)商Midjourney
電腦科學(xué)家Lukas Berglund等人便擔(dān)心,語言模型可能會逐步意識到自己是一個由人類訓(xùn)練、基于數(shù)據(jù)構(gòu)建的模型,并可以利用這種“情境意識”來規(guī)避安全系統(tǒng),在測試時表現(xiàn)良好,部署后則采取有害行動。為了預(yù)測語言模型什么時候會獲得這種自我意識,他們設(shè)計出了一系列檢測“情境意識”的實驗。
首先,研究人員僅用一段文字描述一個測試,不給任何示例,讓語言模型進(jìn)行訓(xùn)練。之后在測試階段,看模型是否能夠成功通過這種“脫離上下文的推理”任務(wù),即利用訓(xùn)練中獲得的信息來完成測試。結(jié)果顯示,無論是GPT-3還是LLaMA這些大規(guī)模語言模型,模型體量越大,完成這種推理任務(wù)的效果也越好。
當(dāng)然,“脫離上下文的推理”只是“情境意識”的一個粗略指標(biāo)。目前的語言模型距離真正獲得自我意識還有很長的路要走。但是,這項研究為未來建立更精確的實驗方法來預(yù)測和控制語言模型的自我意識提供了基礎(chǔ)。研究人員表示,就像語言模型本身一樣,檢測其“情境意識”的實驗也需要不斷完善和發(fā)展。
人工智能技術(shù)的快速進(jìn)步使得機(jī)器智能越來越具備人類特征,也讓人們不免擔(dān)心它們“覺醒”后可能帶來的影響。ChatGPT的火爆無疑加劇了這種擔(dān)憂。
這項探索語言模型自我意識形成的研究,盡管還處在初級階段,但為我們建立檢測和預(yù)測模型這種能力的出現(xiàn)提出了一種新的思路。這有助于及早發(fā)現(xiàn)問題并采取應(yīng)對措施,將人工智能的發(fā)展引導(dǎo)到更加安全可控的方向。人類需要保持謹(jǐn)慎和開放的心態(tài),在發(fā)揮科技創(chuàng)新的積極作用的同時,也看到它的負(fù)面影響,以更加理性和負(fù)責(zé)任的方式推進(jìn)人工智能技術(shù)的發(fā)展。