《未來簡(jiǎn)史》作者尤瓦爾·赫拉利警示:核武器和人工智能最大的區(qū)別是,核武器不能制造更強(qiáng)大的核武器。但人工智能可以產(chǎn)生更強(qiáng)大的人工智能,所以我們需要在人工智能失去控制之前迅速采取行動(dòng)。
最近,微軟雷蒙德研究院機(jī)器學(xué)習(xí)理論組負(fù)責(zé)人塞巴斯蒂安·布貝克(Sébastien Bubeck)聯(lián)合2023斯隆研究獎(jiǎng)得主李遠(yuǎn)志等人,發(fā)表了一篇關(guān)注度極高的論文。這篇論文名為《通用人工智能的火花:GPT-4早期實(shí)驗(yàn)》,長(zhǎng)達(dá)154頁。一些好事者從LaTex源碼中發(fā)現(xiàn),原定的標(biāo)題實(shí)際上是《與AGI的第一次接觸》。
這篇論文的發(fā)表,標(biāo)志著人工智能研究領(lǐng)域的一次重要里程碑。它為我們深入了解通用人工智能(AGI)的發(fā)展和應(yīng)用提供了有價(jià)值的見解。同時(shí),論文的原定標(biāo)題《與AGI的第一次接觸》,也凸顯了對(duì)邁向通用人工智能的探索的重要性和前瞻性。
我耐著性子,看完了這篇論文的翻譯版。說句大實(shí)話,半懂半不懂,不明覺厲。先給大家介紹一下這篇論文的核心主張:GPT-4呈現(xiàn)出一種通用智能的形式,綻放了通用人工智能的火花。這表現(xiàn)在它的核心心智能力(如推理、創(chuàng)造力和推理),它獲得專業(yè)知識(shí)的主題范圍(如文學(xué)、醫(yī)學(xué)和編碼),以及它能夠完成的各種任務(wù)(如玩游戲、使用工具、解釋自己等)。
讀完這篇,我又重溫了拙文《未來可期|人工智能繪畫:讓每個(gè)人都成為藝術(shù)家》。我問了自己一個(gè)問題:此前把ChatGPT這類大模型歸類在人工智能生成內(nèi)容(AIGC),是否有些狹隘?正如微軟研究院論文所說,GPT-4實(shí)際上不僅僅是AIGC,它更像是通用人工智能的雛形。
在解釋AGI意味著什么之前,我先給澎湃科技“未來可期”專欄的讀者朋友說一下ANI、AGI、ASI這三個(gè)單詞。
人工智能(Artificial Intelligence, AI)通常分為三個(gè)層次:
①弱人工智能(Artificial Narrow Intelligence, ANI);
②通用人工智能(Artificial General Intelligence, AGI);
③超人工智能(Artificial Superintelligence, ASI)。
接下來,再稍微給大家介紹一下這三個(gè)層次的區(qū)別和發(fā)展。
①弱人工智能(ANI):
弱人工智能是目前最常見的人工智能形式。它專注于執(zhí)行單一任務(wù)或解決特定領(lǐng)域的問題。例如,圖像識(shí)別、語音識(shí)別、機(jī)器翻譯等。這類智能系統(tǒng)在特定任務(wù)上可能比人類表現(xiàn)得更好,但它們只能在有限的范圍內(nèi)工作,無法處理它們未被設(shè)計(jì)解決的問題。當(dāng)前市場(chǎng)上有許多智能產(chǎn)品和服務(wù),如虛擬助手(Siri、微軟小冰等)、智能音箱(天貓精靈、小愛音箱等)和阿爾法圍棋(AlphaGo)等,都屬于弱人工智能的范疇。弱人工智能的局限性在于,缺乏綜合性的理解和判斷能力,只能在特定任務(wù)上表現(xiàn)出色。
隨著大數(shù)據(jù)、算法和計(jì)算能力的不斷發(fā)展,弱人工智能正在逐步滲透到我們?nèi)粘I畹母鱾€(gè)領(lǐng)域。在金融、醫(yī)療、教育、娛樂等領(lǐng)域,我們已經(jīng)見證了許多成功的應(yīng)用案例。
②通用人工智能(AGI):
通用人工智能,也稱為強(qiáng)人工智能,是指具備與人類同等的智能,能表現(xiàn)正常人類所具有的所有智能行為的人工智能。這意味著,AGI能夠像人類一樣,在各種領(lǐng)域中學(xué)習(xí)、理解、適應(yīng)和解決問題。和ANI不同,AGI能夠獨(dú)立完成多種任務(wù),而不僅僅局限于某個(gè)特定領(lǐng)域。目前,普遍認(rèn)為人工通用智能尚未實(shí)現(xiàn),但許多科技公司和科學(xué)家正在努力靠近這一目標(biāo)。
③超人工智能(ASI):
超人工智能指的是一種人工智能系統(tǒng),在各個(gè)領(lǐng)域遠(yuǎn)遠(yuǎn)超越人類智慧。它不僅能夠完成人類可以完成的各種任務(wù),還在創(chuàng)造力、決策能力、學(xué)習(xí)速度等方面遠(yuǎn)遠(yuǎn)超過人類。ASI的出現(xiàn),可能引發(fā)許多前所未有的科技突破和社會(huì)變革,解決人類無法解決的難題。
然而,ASI也帶來了一系列潛在的風(fēng)險(xiǎn)。例如,它可能導(dǎo)致人類價(jià)值和尊嚴(yán)的喪失,引發(fā)人工智能的濫用和誤用,甚至可能引發(fā)人工智能的反叛等問題。
原來,我們一直認(rèn)為,人工智能技術(shù),從弱人工智能到通用人工智能再到超人工智能,將經(jīng)歷一個(gè)漫長(zhǎng)而復(fù)雜的發(fā)展過程。在這個(gè)過程中,我們有足夠的時(shí)間來做好各種準(zhǔn)備,大到法律法規(guī)、小到每個(gè)個(gè)體的心理準(zhǔn)備。可是,最近我有一個(gè)強(qiáng)烈的感覺:我們離擁有通用人工智能可能只有幾步之遙,而這可能只需要20年甚至更短的時(shí)間。如果有些人說這個(gè)過程只需要5-10年,我也不會(huì)完全排除這種可能性。
OpenAI公司在其發(fā)布的《通向AGI的規(guī)劃和展望》中提到:“AGI有可能為每個(gè)人帶來令人難以置信的新能力。我們可以想象一個(gè)世界,我們所有人都可以獲得幾乎任何認(rèn)知任務(wù)的幫助,為人類的智慧和創(chuàng)造力提供一個(gè)巨大的力量倍增器?!?/p>
然而,這份規(guī)劃強(qiáng)調(diào)了一個(gè)“逐漸過渡”的過程,而不是過分強(qiáng)調(diào)AGI的強(qiáng)大能力。“讓人們、政策制定者和機(jī)構(gòu)有時(shí)間了解正在發(fā)生的事情,親自體驗(yàn)這些系統(tǒng)的好處和壞處,調(diào)整我們的經(jīng)濟(jì),并將監(jiān)管落實(shí)到位。”
在我看來,這段話傳達(dá)的潛在信息是:通往AGI的技術(shù)其實(shí)已經(jīng)具備。然而,為了讓人類社會(huì)有一個(gè)適應(yīng)的過程,OpenAI正在有意放緩技術(shù)的進(jìn)展步伐。他們意圖平衡技術(shù)進(jìn)步和人類社會(huì)的準(zhǔn)備程度,給予更多時(shí)間來進(jìn)行法律、倫理和社會(huì)適應(yīng)的討論,并采取必要的措施來應(yīng)對(duì)可能帶來的挑戰(zhàn)。
《論語·季氏將伐顓臾》里面有這么一句話:“虎兕出于柙”,現(xiàn)在,各種GPT們,如猛虎一般,已經(jīng)從籠子里跑出來了。就像《未來簡(jiǎn)史》作者尤瓦爾·赫拉利所言:人工智能正在以超過人類平均水平的能力掌握語言。通過掌握語言,人工智能已經(jīng)具備與數(shù)億人大規(guī)模產(chǎn)生親密關(guān)系的能力,并正在掌握入侵人類文明系統(tǒng)的鑰匙。他更進(jìn)一步地警示:核武器和人工智能最大的區(qū)別是,核武器不能制造更強(qiáng)大的核武器。但人工智能可以產(chǎn)生更強(qiáng)大的人工智能,所以我們需要在人工智能失去控制之前迅速采取行動(dòng)。
3月22日,生命未來研究所(Future of Life)向全社會(huì)發(fā)布了一封公開信,題為《暫停巨型人工智能研究:一封公開信》,呼吁所有人工智能實(shí)驗(yàn)室,立即暫停比GPT-4更強(qiáng)大的人工智能系統(tǒng)的訓(xùn)練,暫停時(shí)間至少為6個(gè)月。生命未來研究所美國政策主任克雷恩(Landon Klein)表示:“我們認(rèn)為當(dāng)前時(shí)刻類似于核時(shí)代的開始……”這份公開信,已獲得超過超千名人士支持,其中包括埃隆·馬斯克(特斯拉創(chuàng)始人)、山姆·奧特曼(OpenAI首席執(zhí)行官)、約書亞·本吉奧(2018年圖靈獎(jiǎng)得主)等知名人士。
如果許多人都意識(shí)到,我們即將進(jìn)入一個(gè)“人工智能核武器擴(kuò)散”的時(shí)代,那么我們確實(shí)需要探討一種可能性。這個(gè)可能性是建立一個(gè)類似于國際原子能機(jī)構(gòu)的國際組織,其目標(biāo)是監(jiān)督所有人工智能公司,根據(jù)其使用的GPU數(shù)量、能源消耗等指標(biāo)進(jìn)行監(jiān)管。那些超過能力閾值的系統(tǒng),都需要接受審核。通過這樣的國際組織,我們可以共同努力,確保人工智能技術(shù)為人類帶來福祉,而不是潛在的危害。
一些科學(xué)家主張,在推進(jìn)人工智能研究和應(yīng)用時(shí),一定要避免人工智能系統(tǒng)具有超出人類控制的能力。他們做了很多比喻來描述正在發(fā)生的災(zāi)難,包括“一個(gè)10歲的孩子試圖和Stockfish 15下棋”,“11世紀(jì)試圖和21世紀(jì)作戰(zhàn)”,以及“南方古猿試圖和智人作戰(zhàn)”。 這些科學(xué)家希望我們,不要把通用人工智能想象成“居住在互聯(lián)網(wǎng)中,沒有生命的思考者”。而是要把它們想象成一個(gè)完整的外星文明,正在以比人類快百萬倍的速度思考。只不過,它們最初被限制在計(jì)算機(jī)中。
然而,也有一些科學(xué)家持樂觀態(tài)度。在他們看來,人工智能的發(fā)展和研究應(yīng)當(dāng)持續(xù)推進(jìn),以促進(jìn)科學(xué)進(jìn)步和技術(shù)創(chuàng)新。他們比喻說,如果在汽車誕生的那個(gè)年代,如果有馬車夫提議,讓司機(jī)暫停開車6個(gè)月。現(xiàn)在回過頭來看,這是否是螳臂當(dāng)車的行為呢?他們認(rèn)為,通過透明和負(fù)責(zé)任的研究方法,可以解決潛在問題,并確保人工智能技術(shù)的可控性。而且,正是要通過不斷的實(shí)驗(yàn)和實(shí)踐,我們才能更好地理解和應(yīng)對(duì)人工智能可能帶來的挑戰(zhàn)。
最近,世界衛(wèi)生組織(WHO)對(duì)于人工智能與公共醫(yī)療的結(jié)合發(fā)出了警告。他們指出,依賴人工智能生成的數(shù)據(jù)進(jìn)行決策,可能存在偏見或被錯(cuò)誤使用的風(fēng)險(xiǎn)。世衛(wèi)在聲明中表示,評(píng)估使用ChatGPT等生成式大型語言模型(LLM)的風(fēng)險(xiǎn)至關(guān)重要,以保護(hù)及促進(jìn)人類福祉。他們強(qiáng)調(diào),需要采取措施來確保使用這些技術(shù)時(shí)的準(zhǔn)確性、可靠性和公正性,以保護(hù)公眾的利益并推動(dòng)醫(yī)療領(lǐng)域的進(jìn)步。
許多國家已經(jīng)開始采取措施,邁出了規(guī)范人工智能領(lǐng)域的第一步。3月31日,意大利個(gè)人數(shù)據(jù)保護(hù)局宣布,即日起暫時(shí)禁止使用ChatGPT。同時(shí),歐盟官員也正在制定一項(xiàng)名為《人工智能法(AI Act)》的新法律草案,其中包括:禁止特定人工智能服務(wù)的使用以及制定相關(guān)的法律規(guī)范。
美國商務(wù)部則發(fā)布通知,征求公眾意見,其中包括:存有危害風(fēng)險(xiǎn)的人工智能新模型是否需要先進(jìn)行審查才能發(fā)布。同時(shí),商務(wù)部還承諾,打擊那些違反公民權(quán)利和消費(fèi)者保護(hù)法的有害人工智能產(chǎn)品。
5月16日,OpenAI首席執(zhí)行官兼聯(lián)合創(chuàng)始人山姆·奧特曼首次參加美國國會(huì)的聽證會(huì),就人工智能技術(shù)的潛在危險(xiǎn)發(fā)表了講話。他坦承,隨著人工智能的進(jìn)步,人們對(duì)于它將如何改變我們的生活方式感到擔(dān)憂和焦慮。為此,他認(rèn)為政府的干預(yù),可以阻止人工智能“狂放的自我復(fù)制和自我滲透”。他提議建立一個(gè)全新的監(jiān)管機(jī)構(gòu),實(shí)施必要的保障措施,并頒發(fā)人工智能系統(tǒng)許可證,同時(shí)具備撤銷許可的權(quán)力。
在聽證會(huì)上,奧特曼被問及他對(duì)人工智能可能出現(xiàn)的最大擔(dān)憂是什么,他沒有詳細(xì)說明,只是表示“如果這項(xiàng)科技出了問題,可能會(huì)大錯(cuò)特錯(cuò)”,并可能會(huì)“對(duì)世界造成重大傷害”。
在這個(gè)聽證會(huì)之前,中國在人工智能領(lǐng)域的監(jiān)管和控制措施也引起了廣泛關(guān)注。4月11日,為促進(jìn)生成式人工智能技術(shù)健康發(fā)展和規(guī)范應(yīng)用,根據(jù)《中華人民共和國網(wǎng)絡(luò)安全法》等法律法規(guī),國家網(wǎng)信辦起草了《生成式人工智能服務(wù)管理辦法(征求意見稿)》。這份辦法明確了對(duì)生成式人工智能產(chǎn)業(yè)的支持和鼓勵(lì)態(tài)度,比如,“國家支持人工智能算法、框架等基礎(chǔ)技術(shù)的自主創(chuàng)新、推廣應(yīng)用、國際合作,鼓勵(lì)優(yōu)先采用安全可信的軟件、工具、計(jì)算和數(shù)據(jù)資源?!?/p>
該意見稿要求,利用生成式人工智能生成的內(nèi)容應(yīng)當(dāng)體現(xiàn)社會(huì)主義核心價(jià)值觀,不得含有顛覆國家政權(quán)、推翻社會(huì)主義制度,煽動(dòng)分裂國家、破壞國家統(tǒng)一,宣揚(yáng)恐怖主義、極端主義,宣揚(yáng)民族仇恨、民族歧視,暴力、淫穢色情信息,虛假信息,以及可能擾亂經(jīng)濟(jì)秩序和社會(huì)秩序的內(nèi)容。意見稿同時(shí)要求,供貨商須申報(bào)安全評(píng)估,采取措施防止歧視,尊重隱私權(quán)等。
上述這些國家共同采取的措施提醒我們,當(dāng)前人工智能的發(fā)展帶來了巨大的機(jī)遇和挑戰(zhàn)。我們迫切需要制定明確的倫理準(zhǔn)則和法規(guī),以確保人工智能技術(shù)的正確使用和透明度。我們將面臨著一系列重要問題:如何保障數(shù)據(jù)隱私和安全?如何應(yīng)對(duì)算法的偏見和不公正?如何確保人工智能的決策透明和可解釋性?這些問題需要通過明確的法規(guī)和制度來回應(yīng)。
寫到這里,我的思緒莫名地跳轉(zhuǎn)到了最近大火的國產(chǎn)劇《漫長(zhǎng)的季節(jié)》中,那首題為《漫長(zhǎng)的》的詩歌第一段:
打個(gè)響指吧,他說
我們打個(gè)共鳴的響指
遙遠(yuǎn)的事物將被震碎
面前的人們此時(shí)尚不知情
在這里,我想做一個(gè)大膽的預(yù)測(cè):當(dāng)2024年到來,我們來評(píng)選2023年度詞匯時(shí),ChatGPT會(huì)是十大熱詞之一,甚至可能成為年度詞匯或年度人物。
讓我們來拆解一下“AI”這個(gè)單詞吧。如果A代表天使(Angel),那么I可以代表惡魔(Iblis)。如今,人工智能技術(shù)正在迅速發(fā)展,展現(xiàn)出令人驚嘆的“天使和惡魔”的共生關(guān)系。面對(duì)這一現(xiàn)實(shí),我們需要采取行動(dòng),為了一個(gè)目標(biāo)——“讓我們享受一個(gè)金色的漫長(zhǎng)的人工智能的收獲之秋,而不是毫無準(zhǔn)備地陷入寒冬?!?/p>
(作者胡逸,一個(gè)喜歡暢想未來的大數(shù)據(jù)工作者?!拔磥砜善凇笔呛菰谂炫瓤萍奸_設(shè)的獨(dú)家專欄。)