這是一個可以用 AI 復制「一切」的時代:從你的聲音、容貌和表達風格,到你的某些想法或者決策?,F(xiàn)在,AI 甚至可以復制你的「個性」,并且還相當準確。
近日,斯坦福大學和谷歌 DeepMind 的研究人員發(fā)表的一篇新論文顯示,他們用 AI 創(chuàng)建了一個「具有個體態(tài)度和行為」的虛擬復制品。
研究人員稱之為「通用計算代理」。而用于訓練這些「代理」的,僅僅是一次兩小時的訪談。
圖源:arXiv
這項研究由由斯坦福大學的博士生樸俊成(Joon Sung Park)牽頭。研究人員與某招聘公司合作,并采用分層抽樣的方式招募了 1052 名參與者,每一位參與者都用英語完成了一次兩小時的語音訪談。
研究人員選擇了一個由社會學家開發(fā)的采訪協(xié)議,采訪內(nèi)容包括個人生活故事和對當代社會問題的看法。為了進一步量化訪談內(nèi)容量,控制實驗變量,研究人員將每個受試者的回答字數(shù)限制在約 6491 詞左右。
值得一提的是,訪談中的面試官也是由 AI 來扮演的。在談話的大致框架和時間限制內(nèi),這些「人工智能面試官」會根據(jù)每個參與者的回答動態(tài)生成后續(xù)的問題。
隨后,這些回答就被用來訓練每個個體的生成性 AI 模型,即「模擬代理」。
為了驗證這些「代理」模仿人類個性的能力,參與者和 AI 代理都被要求完成一系列測試,內(nèi)容包括性格測試、綜合社會調(diào)查、五個社會科學實驗和五個著名的行為經(jīng)濟學游戲等等。
其中,五個社會科學實驗是發(fā)表在「美國國家科學院院刊」上的用于評估生成性代理是否能夠模擬人類參與者的行為反應(yīng)的一種常用標準;五個著名的行為經(jīng)濟學游戲則包括獨裁者博弈、囚徒困境等。
兩周后,參與者需要「復述」以上測試的回答,并用復述后的內(nèi)容同「代理」生成的回答進行對比分析。結(jié)果顯示,AI 代理能夠以 85% 的準確率模擬參與者的回答,同時在預(yù)測五個社會科學實驗中的個性特征和結(jié)果方面表現(xiàn)出色。
圖源:香港青年協(xié)會
雖然人的「個性」似乎無法量化,但這項研究表明,人工智能的確擅長「以小見大」——它可以通過相對少量的信息推測并準確克隆一個人的「個性」。
這種「代理」的利弊兩面都相當明顯。好處是其為社會科學學者在研究時提供了更多的自由度。
通過創(chuàng)建行為類似于真實個體的數(shù)字復制品,科學家可以直接使用「代理」進行實驗或者調(diào)查,而無需每次都招募大批志愿者。此外,這些「代理」還能夠用來進行一些有關(guān)道德倫理的「爭議」實驗。
麻省理工學院斯隆管理學院的信息技術(shù)副教授約翰·霍頓(John Horton)在接受采訪時就表示這項研究「使用真實的人類來生成人物角色,然后以編程/模擬的方式使用這些人物角色,而這是真實的人類無法做到的」。
圖源:TechRadar
壞處則是,這類「代理」將不可避免地被一些別有用心的人用于「身份偽造」,并最終用于「詐騙」。
更加令人擔憂的是,「代理」在某種意義上獲得了人類的思想和「意識」,甚至能代替本人發(fā)表觀點。樸俊成博士則預(yù)測未來有一天會有一群小版的「你」跑來跑去,并實際上做出你會做出的決定。
其實,「AI 代理」并不是什么處于技術(shù)前沿的詞匯,在此之前,就有「數(shù)字孿生人」的類似概念。不過,「代理」僅僅需要如此少的信息量就能準確重現(xiàn)一個人的「個性」,這才是需要注意和警覺的地方。