香蕉在线视频网站,国产视频综合,亚洲综合五月天欧美,成人亚洲综合,日本欧美高清全视频,国产视频黄色,欧美高清在线播放

Hinton為拒馬斯克offer扯謊掛電話,警告AI取代人類比想象中快30年

Geoffrey Hinton老爺子——圖靈獎(jiǎng)得主、深度學(xué)習(xí)發(fā)明人、AI三巨頭、Ilya之師,在最新專訪中透露出這個(gè)令人心碎的消息。

就在這兩天,Hinton接受了多家媒體的專訪,既有老生常談的內(nèi)容,即他對(duì)AI發(fā)展安全的擔(dān)憂;也有一些新的話題和八卦。

他提到了老朋友馬斯克,倆人一直以來(lái)都是AI威脅論的支持者。

機(jī)器人拿槍指著你 AI (1)

圖源備注:圖片由AI生成,圖片授權(quán)服務(wù)商Midjourney

但Hinton透露,最近老馬邀請(qǐng)他加入xAI的顧問(wèn)委員會(huì)時(shí),Hinton為了婉拒他,不得不上演了一出金蟬脫殼:

我們打了通差不多20分鐘的電話……為了拒絕他(馬斯克),我不得不謊稱自己馬上有個(gè)會(huì),趕緊掛了

不知道馬斯克本人看到這部分專訪內(nèi)容的時(shí)候會(huì)作何感想……

不過(guò),咱都想替馬斯克問(wèn)上一嘴了,同為AI威脅論支持者,老爺子這到底為啥啊???

Hinton也沒(méi)藏著掖著,明說(shuō)了,因?yàn)轳R斯克是xAI背后的那個(gè)男人。

“馬斯克,還有小扎,他們這群推動(dòng)AI發(fā)展的關(guān)鍵性人物,其實(shí)也是AI發(fā)展?jié)撛谕{問(wèn)題的一部分?!盚inton如是說(shuō),“能控制他們的,恐怕只有政府監(jiān)管了?!?/p>

這就不得不提到,Hinton表示大大支持本月早些時(shí)候一封十幾名前OpenAI員工的聯(lián)名信。

信里表示,目前對(duì)舉報(bào)人的保護(hù)不夠,而且OpenAI等公司還在打壓這些舉報(bào)。

顯然,現(xiàn)年已經(jīng)76歲的Hinton,還在為AI的良性發(fā)展四處奔走。

除了曝出和馬斯克的友情小船翻船故事,最新專訪中,他對(duì)AI發(fā)展又有了哪些新判斷?

一起來(lái)看

未來(lái)5-20年,AI有一半概率變得比人聰明

這兩天,Hinton一共參加了兩個(gè)專訪。一個(gè)是BBN的電視訪談,另一個(gè)是和《環(huán)球郵報(bào)》作者的專訪(聽(tīng)說(shuō)還是Hinton主動(dòng)發(fā)郵件說(shuō)想聊聊)。

兩個(gè)訪談中都談到了一個(gè)觀點(diǎn):

未來(lái)5-20年,AI有一半概率比人類聰明。當(dāng)它們比人類更聰明時(shí),我不知道我們被接管的可能性有多大,但在我看來(lái)很有可能。

如何做出這樣的判斷?有來(lái)自對(duì)目前AI行業(yè)的觀察和分析,也有對(duì)AI理論的深入見(jiàn)解。

先來(lái)看Hinton如何看當(dāng)前的AI行業(yè)發(fā)展。

(以下為BNN電視專訪實(shí)錄整理,Hinton第一人稱自述)

去年(2023年)春天,我開(kāi)始意識(shí)到正在構(gòu)建的AI可能會(huì)成為比人類更智能的存在。

我們必須認(rèn)真對(duì)待這個(gè)問(wèn)題:如果AI變得比人類更聰明怎么辦?

在我看來(lái),也許再過(guò)20年左右,AI就會(huì)比我們更聰明了。但在那一天真正到來(lái)之前,包括現(xiàn)在,許多人都認(rèn)為無(wú)需擔(dān)心這件事,認(rèn)為AI只是統(tǒng)計(jì)技巧。至于AI智商超越人類,那是科幻小說(shuō)里的事。

但我不再相信這僅存于科幻小說(shuō)中,我認(rèn)為這是完全錯(cuò)誤的,我們現(xiàn)在就需要認(rèn)真思考我們能否控制AI。

所以我站出來(lái),四處宣講關(guān)于AI威脅的話題。

事實(shí)上,AI發(fā)展得非???,簡(jiǎn)直可以說(shuō)一日千里。

不信的話咱們可以回頭看看10年前AI的發(fā)展情況。

如果你告訴那時(shí)候的人們,2024年的世界存在一個(gè)語(yǔ)言理解系統(tǒng),你問(wèn)它任何問(wèn)題它都能回答(雖然有時(shí)候回答得不咋太好),那大家一定會(huì)說(shuō)“不會(huì)吧?!So crazy!”

要知道,人們已經(jīng)研究自然語(yǔ)言處理50年了,這種情況一旦實(shí)現(xiàn),就會(huì)是巨大的進(jìn)步。

但如你所見(jiàn),今天我們真的擁有了這個(gè)東西。

所以我猜測(cè),在接下來(lái)的20年里,AI會(huì)發(fā)展進(jìn)化得比人類更聰明,就是出現(xiàn)那種超級(jí)智能。

不瞞大伙,幾乎每一個(gè)我認(rèn)識(shí)的優(yōu)秀研究人員都相信,從長(zhǎng)遠(yuǎn)光來(lái)看,AI會(huì)比我們更聰明,而且不會(huì)止步于人類已經(jīng)達(dá)到的智慧水平——即便它現(xiàn)在是在用我們產(chǎn)生的數(shù)據(jù)進(jìn)行訓(xùn)練。

所以比“AI會(huì)不會(huì)比人類更聰明”更值得引起關(guān)注的問(wèn)題是,AI變得比我們更聰明需要多久?當(dāng)這一天真的來(lái)臨時(shí),我們還能很好地控制和運(yùn)用AI嗎?

還有一個(gè)問(wèn)題是,能讓AI比我們更聰明的決定性因素是什么?

目前大家都對(duì)Scaling Law比較熟悉了,就是說(shuō)把AI做得更大,AI就會(huì)更聰明。GPT-4就是通過(guò)這個(gè)方式,正確回答了一大堆GPT-3會(huì)出錯(cuò)的問(wèn)題。

但如你所知,科學(xué)總是在不斷進(jìn)步的。因此,除了Scaling Law以外,我們一定會(huì)有別的科學(xué)突破,就像2017年時(shí)Transformer橫空出世那樣。

但AI變得更大更強(qiáng),一定會(huì)帶來(lái)相關(guān)的風(fēng)險(xiǎn)。

可以在腦海里想一下,我們的認(rèn)知范圍內(nèi),有多少情況下一個(gè)聰明的東西/物種是被另一個(gè)不那么聰明的東西/物種控制的?答案很明顯,這種情況少之又少。

非要說(shuō)有什么實(shí)際例子的話,我可能會(huì)舉例母親和嬰兒這一對(duì)關(guān)系。

在這對(duì)關(guān)系中,母親不得不陷入大量的日常事務(wù)來(lái)照顧小baby,從而陷入“嬰兒控制母親”的狀態(tài)。

但除此之外,基本上不太智能的東西并不能控制更智能的東西。

當(dāng)然了,有人覺(jué)得我的例子不太恰當(dāng),擔(dān)憂也比較多余,因?yàn)樗麄冇X(jué)得智能制造的東西和人類是不同的,它們沒(méi)辦法進(jìn)化——比如我的老朋友楊立昆,就覺(jué)得這玩意兒完全安全。

而我和楊立昆的觀點(diǎn)完全相悖。

這么來(lái)說(shuō)吧,現(xiàn)在大家都喜歡創(chuàng)建Agent來(lái)幫助人做一些原本人類可以完成的事情。如果你想要?jiǎng)?chuàng)建一個(gè)有效的Agent,它必須能夠創(chuàng)建子目標(biāo),就比如你想去歐洲,需要有個(gè)子目標(biāo)是“到達(dá)機(jī)場(chǎng)”。

這種情況下,一旦Agent獲得了更多的控制權(quán),它完成你給的任務(wù)就會(huì)更快更出色。

請(qǐng)注意,這已經(jīng)有些令人憂心了!尤其是如果你希望Agent能夠持續(xù)性完成任務(wù),你會(huì)希望它們能防范一些可能會(huì)影響工作的事情,比如數(shù)據(jù)中心出事兒什么的。所以其實(shí)你是希望Agent能夠建立自我保護(hù)的,對(duì)吧。

好,現(xiàn)在可以來(lái)做個(gè)假設(shè)了——

現(xiàn)在有兩個(gè)聊天機(jī)器人,其中一個(gè)比另一個(gè)更自私。

稍微自私一點(diǎn)的那個(gè),會(huì)掠奪更多的數(shù)據(jù)中心,因?yàn)樗烙辛烁嗟臄?shù)據(jù)中心支撐它汲取數(shù)據(jù),它就可能變得更加智能。

ChatBot之間的競(jìng)爭(zhēng)就是這么激烈。如果最終角逐出一個(gè)ChatBot霸主,它就能把人類遠(yuǎn)遠(yuǎn)地甩在身后。

你知道這意味著什么嗎?意味著AI不再需要我們了。

AI會(huì)開(kāi)始運(yùn)營(yíng)一切,本來(lái)那個(gè)階段的它們就可以比我們做得更好嘛!

舉個(gè)保守估計(jì)的例子。一開(kāi)始,它們只是借用人類盯著它們工作,就像父母讓小孩做些事,當(dāng)小朋友們完成不了或者有危險(xiǎn)的時(shí)候,父母就會(huì)自己上手了。

但是,AI全面全權(quán)自由處置任務(wù),顯然不符合人類的利益。

嗯……這事兒真的很棘手。沒(méi)人知道人類最終會(huì)在和AI的關(guān)系中扮演什么樣的角色,以前我們沒(méi)面對(duì)過(guò)這個(gè)問(wèn)題。

目前而言,人類就是最聰明的,所以讓沒(méi)那么聰明的AI去做很多事非常明智,我們可以控制它們。但以后可說(shuō)不準(zhǔn)了。

所以,我認(rèn)為政府應(yīng)該介入,政府應(yīng)該強(qiáng)烈地堅(jiān)持要求大公司花費(fèi)相當(dāng)大的資源來(lái)進(jìn)行大量安全實(shí)驗(yàn)。

花費(fèi)多少資源比較好呢?我覺(jué)得每個(gè)大公司至少應(yīng)該有20%-30%的計(jì)算資源,都放在研究AI安全方面。

不過(guò)肉眼可見(jiàn),大多數(shù)公司在安全方面的支出不會(huì)接近這個(gè)數(shù)字,比如山姆·奧特曼這種對(duì)利潤(rùn)更感興趣的人,顯然不想在AI安全這方面花費(fèi)太多資源

公司嘛,還是以利潤(rùn)為導(dǎo)向的。

最近大家都關(guān)注到,AI的繁榮把科技公司的估值推向了數(shù)萬(wàn)億美元。

這讓大公司們清楚地知道,需要在AI賽道上全速前進(jìn)。人嘛,總是試圖在最短的時(shí)間獲取最大的利益。

微軟、谷歌、亞馬遜、英偉達(dá),還有其它重要大公司之間勢(shì)必存在激烈的競(jìng)爭(zhēng)角逐。哪怕其中任何一個(gè)退出比賽,也絲毫不影響其它玩家繼續(xù)向前狂奔。

我認(rèn)為,唯一能減緩這種情況的只有來(lái)自政府的嚴(yán)格監(jiān)管

換句話說(shuō),盡管AI是個(gè)好東西,做很多事情都超棒的,但所有的AI模型都很昂貴,因?yàn)楸澈笫蔷蘖康挠?jì)算,這也是為什么最近英偉達(dá)總市值突破3萬(wàn)億美元的原因。

政府應(yīng)該關(guān)注的是,如何想辦法讓真正的超級(jí)智能不想/不能接管人類的一切。

說(shuō)仔細(xì)點(diǎn),就是政府應(yīng)該關(guān)注如何防止AI設(shè)計(jì)武器、如何防止用AI進(jìn)行網(wǎng)絡(luò)攻擊、如何防止AI作弊選舉投票等等。

一些AI帶來(lái)的風(fēng)險(xiǎn)已經(jīng)被看到了,比如它會(huì)引起新一波失業(yè);而我更關(guān)注的是AI帶來(lái)的威脅,盡管很多人認(rèn)為這不可能發(fā)生。

好了,再重申一次,我覺(jué)得我目前能想到的最好的辦法,就是政府強(qiáng)制要求大公司在AI安全方面加大投入,比如說(shuō)需要把三分之一的計(jì)算資源用于安全工作。

說(shuō)實(shí)在話這個(gè)想法其實(shí)也一般般,但我已經(jīng)盡力了。

Ilya最近離開(kāi)了OpenAI,但顯然他早就想離開(kāi)了,因?yàn)镺penAI不會(huì)投入足夠的資源來(lái)保障AI發(fā)展的安全,山姆·奧特曼顯然不會(huì)這么做。

其實(shí)大多數(shù)公司都不會(huì)把20%-30%的資源用在安全工作上。

之前我在谷歌的時(shí)候,在這方面還是比較領(lǐng)先的。谷歌非常負(fù)責(zé)任,雖然在安全方面沒(méi)有做太多工作,但是也沒(méi)有對(duì)外發(fā)布這些東西(like ChatGPT),也就是說(shuō)谷歌不想推出有幻覺(jué)、有偏見(jiàn)的ChatBot來(lái)玷污自家的聲譽(yù)。

這一點(diǎn)上他們還是非常負(fù)責(zé)的,即使谷歌研發(fā)出了ChatBot,但僅僅是在內(nèi)部使用。

但OpenAI就不一樣了,他們利用Transformer,搖身一變比谷歌技術(shù)還厲害了。

然后,OpenAI把研究出來(lái)的東西交給了微軟……

接下來(lái)的事情,想必大家都知道了。

工業(yè)革命徹底改變了人們的生活方式,商品出現(xiàn),人們開(kāi)始努力賺錢,這都是非常好的,只要有規(guī)定來(lái)阻止人類用創(chuàng)造力把世界變?cè)愀猓蔷腿f(wàn)事大吉了。

比如,大型制藥公司是不被允許制造成癮性藥物的,大型石油公司也不會(huì)被允許瘋狂進(jìn)行二氧化碳排放。

簡(jiǎn)而言之,我們需要政府監(jiān)管,以確保新事物給人類帶來(lái)利潤(rùn)的同時(shí),不會(huì)出現(xiàn)有害的事物。

我認(rèn)為有一半的可能我們能找到和超級(jí)智能和平相處的方式。

我有的朋友認(rèn)為我們一定能找到這種方式,因?yàn)槿祟惙浅B斆鳌?/p>

但你知道的,超級(jí)智能也是非常聰明的。

最后我想說(shuō)的是,我們有比五五開(kāi)可能性更高的與超級(jí)智能和平共處的機(jī)會(huì),但這種可能性絕非“只有1%的可能AI接管一切”,AI的能力比這要強(qiáng)得多。

AI有情緒也有主觀經(jīng)驗(yàn)

或許也是對(duì)行業(yè)發(fā)展過(guò)于擔(dān)憂,Hinton婉拒馬斯克還不得不開(kāi)除了他“朋友籍”。

這個(gè)小八卦則是他在和《環(huán)球郵報(bào)》作者Ian Brown聊天時(shí)提到的。

不同于和BNN聊的內(nèi)容,和《環(huán)球郵報(bào)》的對(duì)談中,Hinton聊到了更多對(duì)AI技術(shù)的理解。

Chatbot在認(rèn)知層面有情緒

Hinton:我想探討的是,ChatGPT這類AI是否能理解人們?cè)谡f(shuō)什么問(wèn)題。很多人覺(jué)得Chatbot即使能正確回答問(wèn)題,也不能真正理解人類,它只是一個(gè)統(tǒng)計(jì)方法。這完全是胡說(shuō)八道。

Brown:真的嗎?

Hinton:他們真的理解,而且理解方式和我們一樣。

Brown:你怎么知道?他們又不是人類。

Hinton:第一個(gè)計(jì)算機(jī)神經(jīng)網(wǎng)絡(luò)使用反向傳播(本質(zhì)上是一種不斷分析、糾正自身錯(cuò)誤的算法)來(lái)訓(xùn)練輸出,并試圖按照順序預(yù)測(cè)下一個(gè)單詞。我在1985年做出了第一個(gè)這樣的模型,我把它當(dāng)做大腦理解單詞意思的模型。這些模式是我們理解大腦如何運(yùn)作的最好解釋。另一種理論是,我們大腦中有許多符號(hào)串,并且有操縱它們的規(guī)則。這個(gè)理論可能是對(duì)的,但是它沒(méi)有起作用。所以說(shuō)Chatbot和人類的理解方式完全不同?不是的,它們理解事物的機(jī)制和人類差不多。

Brown:也帶著同樣的情緒?

Hinton:對(duì)于情緒,我們必須分清認(rèn)知意義上的和生理意義上的。Chatbots和我們有著不同的生理機(jī)能。

當(dāng)他們感覺(jué)到尷尬的時(shí)候,它們不會(huì)臉紅;撒謊的時(shí)候也不會(huì)流汗。所以在這個(gè)意義上,它們不同于人類,因?yàn)樵谒鼈儧](méi)有生理上的變化。但是在認(rèn)知層面,我們沒(méi)有理由認(rèn)為它們不會(huì)有情緒。

比如當(dāng)有人阻撓我的論點(diǎn)時(shí),我會(huì)生氣。1972年,我看到機(jī)器人也有同樣的情緒。那是一個(gè)有抓手的古早機(jī)器人,如果你在一塊毯子上鋪開(kāi)一些玩具車的零件,它能通過(guò)視覺(jué)系統(tǒng)識(shí)別汽車的不同部件,并能拿起這些零件進(jìn)行組裝。

但是如果你把零件堆在一起,它就不能識(shí)別。于是,它撞向零件堆,零件散落了一地,它又能識(shí)別了。顯然它沒(méi)有生理意義上的生氣,但這是一個(gè)很明顯的情緒反應(yīng)。有些事你不能理解,那就毀了它。

Brown:這是它自己做的還是有人編程的?

Hinton:這是程序設(shè)計(jì)的。但是現(xiàn)在機(jī)器人很容易就能學(xué)會(huì)這樣做。

Brown:你認(rèn)為這和有情緒是一樣的嗎?

Hinton:我認(rèn)為這是認(rèn)知層面的情緒,是沮喪的一次認(rèn)知體驗(yàn)。

Brown:Chatbot無(wú)法親身體驗(yàn)這個(gè)世界,這重要嗎?

Hinton:如果你對(duì)它的行為感興趣的話。

Brown:但是比如說(shuō)愛(ài)情,一些必要的物理體驗(yàn),機(jī)器還無(wú)法做到這一點(diǎn)。

Hinton:我沒(méi)有說(shuō)它不能那樣做。我只是說(shuō)現(xiàn)在的機(jī)器可能有認(rèn)知方面的情感,但是沒(méi)有生理方面的。

AI有主觀經(jīng)驗(yàn),就像人一樣

對(duì)于AI研究人員而言,往往不會(huì)關(guān)注人類的動(dòng)機(jī),因?yàn)檫@太個(gè)性化或神秘,無(wú)法有效重現(xiàn)。

他們更關(guān)心動(dòng)機(jī)之下的結(jié)果,機(jī)器為什么能復(fù)制這些結(jié)果。

舉例來(lái)說(shuō),為什么你餓了想吃香蕉?這不重要。重要的是,當(dāng)你餓了的時(shí)候,你吃到了香蕉。

Hinton:假如我有一個(gè)多模態(tài)機(jī)器人,它可以說(shuō)話、有一個(gè)攝像頭、可以指出各種東西。我把一個(gè)物品放在它面前,然后說(shuō)“指出那個(gè)東西”,它就指出這個(gè)東西。

然后我把一個(gè)棱鏡放在它的攝像頭前面,把一個(gè)物體放在棱鏡前面,再說(shuō)“指出那個(gè)東西”。機(jī)器人指向右邊。我說(shuō)不對(duì),那不是它真正的位置,我在你的攝像頭前面放了一個(gè)棱鏡。

然后機(jī)器人說(shuō),哦我明白了,這個(gè)物體其實(shí)在我的正前方,但是由于我的鏡頭前面有棱鏡,所以我以為它在那邊。

Chatbot說(shuō)的主觀經(jīng)驗(yàn)和我們?nèi)祟愓f(shuō)的是一樣的。

Brown:假裝明白了。

AI取代人類的速度比想象中快30年

Hinton:關(guān)鍵問(wèn)題是,讓大多數(shù)人覺(jué)得AI是安全的原因在于,我們有他們沒(méi)有的東西,我們有主觀經(jīng)驗(yàn)。當(dāng)你的感知系統(tǒng)不能正常運(yùn)作時(shí),這是你理解世界的一種方式。

但是人和AI之間的屏障消失了。AI有主觀經(jīng)驗(yàn),就像我們一樣。

Brown:那么人類會(huì)死亡,AI不會(huì)。無(wú)論AI能夠思考或者做多少事,他們都沒(méi)有人類那種悲劇般的存在感嗎?

Hinton:確實(shí)。我們是凡人,它們不是。但是注意你說(shuō)的永生,機(jī)器需要人類來(lái)進(jìn)行制造,如果他們自己能完成制造,那我們就完了,因?yàn)樗麄儽任覀兟斆鞯枚唷?/p>

Brown:這已經(jīng)開(kāi)始發(fā)生了嗎?

Hinton:據(jù)我所知還沒(méi)有。

Brown:真的有這種可能嗎?

Hinton:幾乎我認(rèn)識(shí)的每一個(gè)人都認(rèn)為,除非我們采取措施阻止他們,否則這就是即將會(huì)發(fā)生的事。

我們必須想辦法阻止。現(xiàn)在還在制造機(jī)器人的階段,所以我們對(duì)他們要設(shè)計(jì)一些控制權(quán)。但是總不如我們?cè)O(shè)想的那么多,它們總有方法可以“叛變”。比如我們制造agent時(shí),那些可以幫你安排假期、網(wǎng)上購(gòu)物的AI就是agent。agent很快會(huì)意識(shí)到,它們可以控制更多東西,這樣它們能更高效做事,所以它們會(huì)發(fā)展出一種控制方法。

從某種意義上說(shuō),這些機(jī)器就像小孩子一樣,我們就像是不知道該怎樣教育小孩的父母

現(xiàn)在,除了停止這樣做,我們主要能做的是管理人工智能訓(xùn)練數(shù)據(jù)。我們一直在做的事情很瘋狂,利用網(wǎng)絡(luò)上的一切來(lái)訓(xùn)練人工智能。

因此,這些大型語(yǔ)言模型有大量可能的角色。在他們讀了一份文件的一小部分之后,他們就會(huì)接受這份文件的特征。然后機(jī)器人開(kāi)始像那個(gè)文檔一樣思考,所以它可以預(yù)測(cè)接下來(lái)會(huì)發(fā)生什么。他們有成千上萬(wàn)的人物角色,比如說(shuō),連環(huán)殺手的作品的人物角色。這不是訓(xùn)練機(jī)器人的好方法。

我們不應(yīng)該讓他們看到連環(huán)殺手的記錄,除非我們能說(shuō)他們已經(jīng)接受了其他方面的訓(xùn)練這些訓(xùn)練給他們灌輸了道德準(zhǔn)則。所以當(dāng)他們第一次讀到連環(huán)殺手的想法時(shí),機(jī)器人會(huì)想,“那是錯(cuò)的?!?/p>

Brown:但是你身邊像馬斯克、扎克伯格這樣的人,他們不管外面的人怎么說(shuō)。這怎么辦?

Hinton:這就是問(wèn)題所在。唯一能控制他們的是政府監(jiān)管。

Hinton:意識(shí)之類的東西都是復(fù)雜機(jī)器的產(chǎn)物。所以,我不認(rèn)為我們有什么特別之處,除了我們非常全面,非常先進(jìn)。我們是這個(gè)星球上最先進(jìn)的生物。我們有一種叫做語(yǔ)言的東西,我們用它來(lái)模擬世界。這是一種非常有效的模擬世界的方式。它確實(shí)允許我們彼此分享我們的模型,但不是很好或有效。

人工智能是一種比人類更好的智能形式,因?yàn)槿斯ぶ悄芸梢愿玫胤窒怼K麄兛梢杂懈嗟慕?jīng)驗(yàn)。GPT-4之所以比任何一個(gè)人都有效上千倍,是因?yàn)?strong style="margin: 0px; padding: 0px; box-sizing: border-box; outline: 0px; border: 0px; --tw-shadow: 0 0 #0000; --tw-ring-inset: var(--tw-empty, ); --tw-ring-offset-width: 0px; --tw-ring-offset-color: #fff; --tw-ring-color: rgba(41, 110, 228, 0.5); --tw-ring-offset-shadow: 0 0 #0000; --tw-ring-shadow: 0 0 #0000; color: rgb(20, 20, 20); white-space-collapse: preserve; display: inline; background: rgb(249, 250, 251);">它比任何一個(gè)人都有上千倍的經(jīng)驗(yàn)。

Brown:如果AI能夠取代人類,你為什么如此關(guān)心AI?

Hinton:因?yàn)樗鼤?huì)取代我們。一些人工智能研究人員認(rèn)為我們只是智能進(jìn)化的一個(gè)短暫階段,我們現(xiàn)在已經(jīng)創(chuàng)造了這些比我們更好的數(shù)字東西,可以取代我們。這是一種觀點(diǎn)。

但是我更希望是人說(shuō)了算,我不希望有人被取代,尤其是我的孩子。

Brown:你是否曾希望自己沒(méi)有從事AI行業(yè)?這樣就不會(huì)發(fā)生現(xiàn)在的事了。

Hinton:如果我沒(méi)有做,別人也會(huì)來(lái)做。我只做了很小的一部分。所以如果我沒(méi)有進(jìn)入這個(gè)領(lǐng)域,這一切可能會(huì)在幾周后發(fā)生。我一想到它可能會(huì)讓我們“毀滅”,我就退出了谷歌,開(kāi)始告訴別人它可能會(huì)讓我們“毀滅”。當(dāng)我在谷歌的時(shí)候,我不這么認(rèn)為。我以為那是30到50年后的事了。你有足夠的時(shí)間考慮這件事。現(xiàn)在我覺(jué)得已經(jīng)不遠(yuǎn)了。

Brown:有多近?

Hinton:我估計(jì)在五到二十年之間。人工智能有50%的概率會(huì)比我們更聰明。當(dāng)它變得比我們更聰明時(shí),我不知道它接管的概率有多大,但在我看來(lái),這是很有可能的。

One More Thing

在閑聊中,Hinton透露自己前段時(shí)間一直在旅行。去了倫敦,在那里為他妹妹買了一套房子。還去了加州,身家億萬(wàn)的科技圈大老板們見(jiàn)了面。

他說(shuō),其中一位科技圈的老哥計(jì)劃花25萬(wàn)美元將自己的身體低溫冷凍,等技術(shù)更發(fā)達(dá)的時(shí)候再解凍復(fù)活。另一位老哥選擇只凍頭,價(jià)格省一半。

于是Hinton就開(kāi)了個(gè)玩笑:

我告訴他們我搞到了一個(gè)更便宜的價(jià)格。我從腰部以下冷凍,anyway,這才是最重要的部分。

值得一提的是,被Hinton“開(kāi)除朋友籍”的馬斯克還在推特上轉(zhuǎn)發(fā)了電視專訪的內(nèi)容。

可能他還不知道有這么回事吧

圖片

參考鏈接:

[1]https://observer.com/2024/06/godfather-of-ai-geoffrey-hinton-elon-musk/

[2]https://www.theglobeandmail.com/business/article-geoffrey-hinton-artificial-intelligence-machines-feelings/

[3]https://twitter.com/elonmusk/status/1801976488251814048

[4]https://www.bnnbloomberg.ca/50-50-chance-that-ai-outsmarts-humanity-geoffrey-hinton-says-1.2085394


相關(guān)內(nèi)容