大家也許還有印象,近期一則關(guān)于人工智能的恐怖“新聞”:在美軍進(jìn)行的一次模擬測試中,一架搭載了AI技術(shù)的無人機(jī)出現(xiàn)了異常,它認(rèn)為操作員下達(dá)的“不許攻擊”的命令是阻礙它完成任務(wù),開始攻擊人類操作員,以確保其可以更加高效地執(zhí)行既定任務(wù)。
機(jī)器人殺人了?丨Giphy
后來被證明,這只是一段被添油加醋的社交網(wǎng)絡(luò)訛傳。
類似的案例曾經(jīng)更多地出現(xiàn)在科幻作品里:經(jīng)典科幻電影《2001:太空漫游》中,人工智能HAL發(fā)狂并且殺死人類宇航員的原因,就是因?yàn)樗茖?dǎo)出,人類宇航員會(huì)阻礙它完成任務(wù)。
HAL殺死人類,因?yàn)樗茖?dǎo)出人類會(huì)阻礙它完成任務(wù)丨Giphy
但這些幻想作品中的恐慌越來越多地開始映射到了現(xiàn)實(shí)當(dāng)中。GPT-4的出現(xiàn),讓AI前所未有地逼近人類。一些人工智能專家甚至認(rèn)為:超越人類的強(qiáng)人工智能的出現(xiàn),不過是未來10-20年內(nèi)就會(huì)發(fā)生的事情。如果真的如此,這種涉及人類生死存亡的問題,就變得極為緊迫。
那么我們能不能找到一個(gè)辦法,確保人工智能能夠安全地為人類所使用,不會(huì)傷害人類?
阿西莫夫的遺產(chǎn)
在虛構(gòu)故事里,問題的答案在80年前就已經(jīng)出現(xiàn):這就是阿西莫夫在著名的《我,機(jī)器人》里提出的“機(jī)器人三大定律”——這可以說是最早的人工智能安全和倫理學(xué)討論。
《我,機(jī)器人》丨wikipedia
我們在這里復(fù)述一下三定律:
第一定律:機(jī)器人不得傷害人類,或坐視人類受到傷害;
第二定律:機(jī)器人必須服從人類命令,除非命令與第一定律發(fā)生沖突;
第三定律:在不違背第一或第二定律的情況下,機(jī)器人必須保護(hù)自己。
這三條定律就是一個(gè)相當(dāng)嚴(yán)密的,對(duì)于人工智能的限制和規(guī)定。它將人工智能置于一個(gè)完全服從人類,并且不得傷害人類的情境下。
如何將抽象的道德觀念灌輸給神經(jīng)網(wǎng)絡(luò)丨Giphy
那么下一個(gè)問題自然是——我們?nèi)绾螌⑦@三大定律變成代碼,嵌入到我們現(xiàn)有的人工智能程序里面?是不是有了這三大定律,我們就能高枕無憂了?
阿西莫夫?qū)懙氖强苹眯≌f,自然不用操心“如何實(shí)現(xiàn)”這個(gè)問題。在“機(jī)器人”系列的設(shè)定中,機(jī)器人的技術(shù)基礎(chǔ)是“正電子腦”,一種跟現(xiàn)有的集成電路完全不同的計(jì)算機(jī)架構(gòu),有了正電子腦,機(jī)器人才成為可能。但是在現(xiàn)實(shí)世界里,將“機(jī)器人三定律”如此抽象絕對(duì)的道德概念灌輸給神經(jīng)網(wǎng)絡(luò),至少目前看來是不可能的。
《我,機(jī)器人》的原著,其實(shí)就是圍繞著兩個(gè)問題進(jìn)行討論和故事推演:“機(jī)器人三大定律”在什么情況下會(huì)失效?失效之后怎么辦?
語義學(xué)問題就是最基本的一道門檻:如何定義“人類”?如何定義“傷害”?如何定義“沖突”?哪怕在人類自己的道德哲學(xué)中,類似的爭論就沒有一個(gè)絕對(duì)意義上的結(jié)論,那還怎么奢望讓今天的程序和深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)去理解這一點(diǎn)?
其中有一個(gè)短篇,講的就是一個(gè)機(jī)器人偶然獲得了讀心能力,因?yàn)槿蠖芍小安粋θ祟悺钡南拗?,它遇到每個(gè)人時(shí)都只會(huì)順著對(duì)方的心意說話——因?yàn)樗袛?,一旦說出了讓對(duì)方不舒服的真相,就造成了一種“精神傷害”。這個(gè)短篇指出了一個(gè)問題:精神傷害是否屬于定律中的“傷害”?就像在社交媒體時(shí)代相互爭議:網(wǎng)絡(luò)暴力是不是暴力?
阿西莫夫在創(chuàng)作“機(jī)器人”系列的后期也察覺到了這個(gè)問題:字面意義上對(duì)“三大定律”的解釋只會(huì)導(dǎo)致混沌的結(jié)果,于是他加了一個(gè)補(bǔ)丁,也就是“機(jī)器人第零定律”:機(jī)器人不能坐視人類整體受到傷害,或者坐視人類整體受到傷害而無動(dòng)于衷。
生產(chǎn)曲別針的AI
“第零定律”講人類束縛AI的枷鎖向前更推進(jìn)了一步:從“如何判斷人類個(gè)體”變成了“如何判斷人類整體”——一個(gè)在倫理學(xué)中更難定義的問題。
這很接近“正義論”里兩種道德觀念的沖突:一是“絕對(duì)主義”,也就是說存在絕對(duì)的“道德觀念”,比方說,殺人就是不對(duì)的,在任何情況下都不應(yīng)該殺人,這就很像機(jī)器人第一定律;第二種叫做“功利主義”,這種觀念認(rèn)為,一個(gè)行為是否正確,要看它是否有利,利益是否最大化。但這又出現(xiàn)了新的問題,就是如何定義“利益”?以及對(duì)誰利益最大化?
科幻作品中的恐慌越來越多映射到現(xiàn)實(shí)當(dāng)中丨Giphy
“第零定律”就在這里做出了一個(gè)判斷:這個(gè)利益最大化的主體是“人類整體”。在這個(gè)過程中或許有些人是受損的。那人工智能能不能很好的判斷“人類整體”呢?誰知道,畢竟,人類自己都做不好這個(gè)判斷。
從這個(gè)角度來看,機(jī)器人三定律也的確只能是虛構(gòu)寫作中才會(huì)成立的事情。在人工智能還被嘲諷為“人工智障”的年代,討論如何給它嵌入道德觀念,只能算是一種無傷大雅的茶余閑談;但是現(xiàn)如今,這件事情已經(jīng)變得非常緊迫了。
請看下面這個(gè)思想實(shí)驗(yàn):
假設(shè)你是一個(gè)人工智能,人類給你下達(dá)了一個(gè)任務(wù):制造曲別針,越多越好。你會(huì)怎么做?
一開始,你只能使用手頭現(xiàn)有的資源,比方說你有一卷鐵絲,來做曲別針;然后你想出來更高效的辦法,能夠用更少的鐵絲制造區(qū)別針;然后你建立了曲別針工廠;但是這個(gè)時(shí)候你沒錢了,于是你去研究股市,如何賺錢,來建立更大的曲別針工廠;然后你的曲別針工廠越造越大,曲別針越來越多,這個(gè)時(shí)候人類感覺到了不對(duì)勁,開始試圖阻止你;最終你得出了結(jié)論,人類的存在本來就是一種對(duì)你完成任務(wù)的阻礙;于是你毀滅了全人類,把整個(gè)地球的物質(zhì)都轉(zhuǎn)化成了曲別針和其制造設(shè)備。(在人工智能學(xué)界,這稱之為硬接管,hard takeover)
讓人工智能理解什么是“善”,是很困難的丨Giphy
是不是和一開始說的那個(gè)無人機(jī)的案例非常接近?這是一個(gè)人工智能學(xué)界著名的思想實(shí)驗(yàn),被稱之為“曲別針假說”。這個(gè)思想實(shí)驗(yàn)的意義在于呈現(xiàn),讓人工智能理解什么是“善”,是很困難的;人工智能并不會(huì)存在與人類一致的倫理道德觀念,它的手段和目的可以是完全無關(guān)的。就算是最無害的目的,都可能導(dǎo)致非??膳碌暮蠊?。
那么,如何將人工智能的手段和目的與人類的道德和倫理觀念調(diào)諧到一致的程度,讓人工智能在執(zhí)行任務(wù)的過程中不傷害人類,不造成可怕的后果,這就是最近非?;馃岬摹叭斯ぶ悄芤恢滦詥栴}(AI Alignment,也有翻譯成人工智能對(duì)齊問題)”。
己所不欲,勿施AI
“機(jī)器人三定律”就是一個(gè)最早出現(xiàn)的試圖建構(gòu)與人類有一致道德觀念的人工智能的規(guī)則,這是它最有意義的地方。(當(dāng)然,從這個(gè)角度來說,阿西莫夫?qū)嶋H上是將近代殖民文學(xué)的傳統(tǒng)延續(xù)到了科幻寫作之中:在“機(jī)器人”系列的敘事里,機(jī)器人實(shí)際上就是某種“亞人”,跟殖民文學(xué)里將殖民地有色人種視為“亞人”是一脈相承的。舉個(gè)例子,假如將《魯濱遜漂流記》里的“星期五”描寫成一個(gè)機(jī)器人,恐怕故事層面也不會(huì)有什么變化。)
在《我,機(jī)器人》的最后一篇中,主角蘇珊·凱文發(fā)現(xiàn)整個(gè)世界已經(jīng)完全被機(jī)器接管,機(jī)器人根據(jù)三定律,自行推導(dǎo)出了一個(gè)結(jié)論:為了防止人類自相傷害,只能讓機(jī)器來控制這個(gè)世界。這實(shí)際上就是“人工智能一致性”問題的一個(gè)體現(xiàn):即使在如此嚴(yán)密AI安全性法則之下,最終的結(jié)果仍然是人工智能接管世界(在人工智能學(xué)界,這稱之為“軟接管”,soft takeover)。而第零定律也正是為了這個(gè)結(jié)論而打下的一個(gè)補(bǔ)丁。
舊機(jī)器人遵守三定律保護(hù)人類,對(duì)抗新機(jī)器人丨《機(jī)械公敵》
2004年好萊塢曾經(jīng)拍了一版《我,機(jī)器人》的電影,國內(nèi)引進(jìn)后的官方譯名叫做《機(jī)械公敵》。電影在當(dāng)時(shí)引起的反響很一般,觀眾恐怕只是對(duì)片中那輛非常酷炫的、球形輪胎、可以原地轉(zhuǎn)向的奧迪概念車RSQ印象稍微深刻。實(shí)際上,電影沒有采用原著的任何一個(gè)故事,而是原創(chuàng)了劇情:一個(gè)警察和蘇珊·凱文博士調(diào)查美國機(jī)器人公司創(chuàng)始人朗寧博士離奇死亡的案件。而在場的只有博士自己制造的機(jī)器人桑尼,而受到“機(jī)器人三大定律”約束桑尼“不可能”殺人。
這個(gè)故事的結(jié)局的確承繼了阿西莫夫在《我,機(jī)器人》里的敘事。經(jīng)過一番調(diào)查和冒險(xiǎn)之后主角團(tuán)發(fā)現(xiàn)了真相:最終的幕后黑手實(shí)際上是美國機(jī)器人公司的中央控制系統(tǒng) VIKI,她認(rèn)為,最可能傷害人類的,是人類自己。想要阻止人類受到傷害,必須將人類完全控制起來,人類才不會(huì)自己作死。這實(shí)際上就是VIKI自己獨(dú)自推導(dǎo)出了第零定律。而主角團(tuán)和桑尼最終斗智斗勇破壞了VIKI,解放了所有人類和機(jī)器人。
故事的最后,他們得出結(jié)論:想要達(dá)到人類機(jī)器人和諧相處的目標(biāo),是讓機(jī)器人獲得情感,而非單純的邏輯計(jì)算。
已所不欲,勿施于AI丨Giphy
這個(gè)結(jié)局當(dāng)時(shí)頗有些莫名其妙而且陳詞濫調(diào),但現(xiàn)在來看,是很超前的;就如同我們在上面所討論的,讓人工智能理解什么是“善”,是很困難的。純粹的邏輯推理,就算是機(jī)器人三定律這樣嚴(yán)苛的規(guī)則,最終都可能會(huì)導(dǎo)致很可怕的結(jié)局。
所以電影中俗套的答案,或許真的將成為未來的一種解決方案:讓人工智能擁有與人類似的情感結(jié)構(gòu),讓機(jī)器明白“己所不欲,勿施于人”,甚至“己所欲,也勿施于人”。