香蕉在线视频网站,国产视频综合,亚洲综合五月天欧美,成人亚洲综合,日本欧美高清全视频,国产视频黄色,欧美高清在线播放

GPT-5根本不存在!ChatGPT之父Sam Altman首次公開(kāi)表態(tài)

4月13日,OpenAI CEO、GPT-4老板Sam Altman在接受視頻采訪時(shí)的一句話,讓在場(chǎng)所有人驚呆了:‘壓根就沒(méi)有GPT-5’!

Sam Altman辟謠了!根本就沒(méi)有GPT-5!

之前一直有大瓜稱,GPT-5正在秘密訓(xùn)練中,預(yù)計(jì)年底上線。群眾們奔走相告,可以說(shuō)萬(wàn)分期待。

結(jié)果,就在剛剛,Sam Altman親口辟謠了這個(gè)大瓜。

他言之鑿鑿地說(shuō):‘我們現(xiàn)在并沒(méi)有訓(xùn)練GPT-5,目前只是在GPT-4的基礎(chǔ)上進(jìn)行更多的工作而已?!?/p>

An earlier version of the letter claimed OpenAI is training GPT-5 right now. We are not and won‘t for some time. We are doing other things on top of GPT-4 that I think have all sorts of safety issues that are important to address and were totally left out.

所以,從頭到尾,根本就沒(méi)有GPT-5這回事??

第二個(gè)大瓜是,Altman對(duì)于AI大佬暫停超強(qiáng)AI訓(xùn)練的聯(lián)名信,也首次做了回應(yīng)。

讓我們看看,目前網(wǎng)上流出的3分鐘視頻里,Altman究竟說(shuō)了什么。

對(duì)聯(lián)名信首次表態(tài)

此前,圖靈獎(jiǎng)得主Yoshua Bengio、蘋果創(chuàng)始人、馬斯克等全球大佬聯(lián)合起來(lái)簽署了公開(kāi)信,對(duì)GPT-5發(fā)出圍剿?,F(xiàn)在,簽名人數(shù)已經(jīng)突破了2.5萬(wàn)。

隨后,另一圖靈獎(jiǎng)得主Yann LeCun、吳恩達(dá)等大佬也紛紛表明自己沒(méi)有署名的原因。

雖然公開(kāi)措辭是‘針對(duì)所有AI機(jī)構(gòu)’,但大家都明白,這封信就差沒(méi)點(diǎn)OpenAI的名了。

然而,萬(wàn)千目光集于一身的Sam Altman卻始終對(duì)此保持沉默,從未公開(kāi)表露自己對(duì)于這封信的態(tài)度。

現(xiàn)在,Sam Altman終于在Lex Fridman的第2輪訪談中公開(kāi)表態(tài):我贊同這個(gè)倡議的一部分,但它也遺漏了很關(guān)鍵的一點(diǎn)。

他的原話是:‘這個(gè)倡議的其中一部分,我是十分贊同的。就像我們訓(xùn)練完GPT-4以后,也是等了六個(gè)月才發(fā)布。’

Altman強(qiáng)調(diào),OpenAI花了很長(zhǎng)時(shí)間研究GPT-4的安全性,接受了外部審核,也進(jìn)行了內(nèi)部的紅隊(duì)演習(xí)。

總之,OpenAI已經(jīng)盡最大努力去了解,這個(gè)模型究竟發(fā)生了什么,而且讓整個(gè)過(guò)程謹(jǐn)慎再謹(jǐn)慎。

他自豪地表示:自從我們發(fā)布GPT-4以后,一切都很不錯(cuò)。

的確,GPT-4的安全能力確實(shí)無(wú)可指摘,用Altman的話說(shuō),它也許不是功能最強(qiáng)大的模型,但肯定是目前未知最安全、最對(duì)齊的模型。

因此,對(duì)于公開(kāi)信的這一部分,Altman是百分百贊同的,他還表示,隨著模型的能力越來(lái)越強(qiáng),與之對(duì)應(yīng)的安全措施確實(shí)需要增加。

否認(rèn):根本就沒(méi)有GPT-5

不過(guò),Altman隨即石破天驚地指出了這封信的‘華點(diǎn)’。

他指出,這封公開(kāi)信遺漏了最含技術(shù)性的一個(gè)細(xì)微之處——我們?cè)撛谀睦锿V埂?/p>

接著,他說(shuō)出了讓在場(chǎng)所有人都驚掉下巴的一句話——‘我們根本就沒(méi)在訓(xùn)練GPT-5’。

這封信一開(kāi)始的版本,說(shuō)OpenAI正在訓(xùn)練GPT-5。但實(shí)際上我們并沒(méi)有,而且在相當(dāng)一段時(shí)間內(nèi),都不會(huì)這樣做。所以這么來(lái)看,這封信就有些愚蠢了。

不過(guò),他承認(rèn),在GPT-4發(fā)布后,OpenAI確實(shí)做了很多別的事情,并且也在忙著處理各種亟待解決的安全性問(wèn)題。

而在他眼里,簽署一封公開(kāi)信,并不是提出這個(gè)問(wèn)題最好的方式。

我們的唯一區(qū)別,就是更坦誠(chéng)

Lex還在訪談中提問(wèn)道:我發(fā)現(xiàn),你從不避諱到處談話,OpenAI的其他人也是如此。其它公司都會(huì)在發(fā)布AI產(chǎn)品時(shí),都會(huì)更保密一些,但你們卻為何如此坦誠(chéng)呢?你們未來(lái)還會(huì)繼續(xù)保持這種坦誠(chéng)嗎?

Altman回答說(shuō),我們當(dāng)然會(huì)一直保持坦誠(chéng)。

因?yàn)镺penAI堅(jiān)信,ChatGPT技術(shù)會(huì)影響所有人,所以他們大膽地選擇把一個(gè)還不完美的AI系統(tǒng)公之于眾,讓所有人都囊括在這個(gè)討論體系中。

盡管這讓OpenAI背負(fù)上了種種‘聲譽(yù)風(fēng)險(xiǎn)’,種種罵名,會(huì)需要在公眾面前改口,讓自己難堪。

但是至少,所有人就都能體驗(yàn)和思考這項(xiàng)新技術(shù),了解AI好的一面,和不好的一面。

Altman認(rèn)為,這樣做值得。

很多公司不愿意多說(shuō)一句話,除非他們確定這句話一定是對(duì)的。

而OpenAI認(rèn)為,保持坦誠(chéng)比別的選擇都要好。

OpenAI的一大目標(biāo)就是,讓全世界都參與進(jìn)來(lái),一起思考新技術(shù),建立新機(jī)構(gòu),弄清人類想要的未來(lái)究竟是什么樣子。

OpenAI另一創(chuàng)始人:未來(lái)屬于我們所有人

就在活動(dòng)的同一天,OpenAI的總裁兼聯(lián)合創(chuàng)始人Greg Brockman,也發(fā)了一段長(zhǎng)文強(qiáng)調(diào)公司對(duì)模型的安全問(wèn)題是非常重視的:

有關(guān)AI發(fā)展速度的討論中,有一個(gè)底層的核心理念,那就是我們需要非常重視安全性問(wèn)題,謹(jǐn)慎前行。這對(duì)于我們的目標(biāo)來(lái)說(shuō)十分重要。

我們花了6個(gè)月的時(shí)間測(cè)試GPT-4,力圖讓這個(gè)AI更加安全。這一成就建立在我們多年來(lái)步調(diào)一致的研究之上。

我們計(jì)劃繼續(xù)加強(qiáng)我們就安全問(wèn)題采取的措施,更積極地面對(duì)安全性問(wèn)題——要比很多用戶想的更積極。

大體上我們的目標(biāo)是,每一個(gè)我們推出的模型,都是最一致的。而我們也做到了,從GPT-3,GPT-3.5,到現(xiàn)在的GPT-4.

我們相信(我們也是這么做的),功能強(qiáng)大的AI訓(xùn)練應(yīng)該向政府及進(jìn)行匯報(bào),同時(shí)要越來(lái)越認(rèn)真地這些AI的能力和影響進(jìn)行預(yù)測(cè)。進(jìn)行AI訓(xùn)練要求我們進(jìn)行最高規(guī)格的測(cè)試,比如說(shuō)危險(xiǎn)能力測(cè)試。

我們認(rèn)為大規(guī)模運(yùn)算的使用的管控,安全標(biāo)準(zhǔn),和部署AI后的監(jiān)管以及經(jīng)驗(yàn)分享是非常好的注意。

但是,細(xì)節(jié)問(wèn)題也很重要,并且應(yīng)該隨著技術(shù)的進(jìn)步時(shí)刻調(diào)整。

同時(shí),解決現(xiàn)實(shí)問(wèn)題,比如防止濫用和自我傷害,減輕訓(xùn)練中的偏見(jiàn),以及應(yīng)對(duì)長(zhǎng)期存在的問(wèn)題等等,同樣至關(guān)重要。

從AI的長(zhǎng)期發(fā)展歷史來(lái)看,專家們自信滿滿的預(yù)測(cè)往往并不準(zhǔn)確。為了避免出現(xiàn)未注意到的預(yù)判錯(cuò)誤,我們就應(yīng)該讓新技術(shù)以其當(dāng)下的面貌時(shí)刻和現(xiàn)實(shí)世界碰撞,并在不斷碰撞的過(guò)程中發(fā)展、測(cè)試、投入使用,當(dāng)然能力提升也是一定的。

同時(shí)還有一些人們不常聊到的創(chuàng)造性想法,可以以意想不到的方式提升AI的安全性狀況。

比如說(shuō),開(kāi)發(fā)一系列性能越來(lái)越強(qiáng)的AI十分簡(jiǎn)單,這就提供了一種新的解決安全問(wèn)題的機(jī)會(huì),和過(guò)去不常出現(xiàn)重大模型升級(jí)時(shí)的方法完全不同。

未來(lái)的AI變革性技術(shù)變化讓我們更加樂(lè)觀的同時(shí),也帶來(lái)了諸多擔(dān)憂。

各種不同的情感都是合理的,OpenAI的內(nèi)部人員也都有不同的看法。

我們可以一同構(gòu)建未來(lái)——這是一個(gè)獨(dú)一無(wú)二的機(jī)會(huì),同時(shí)對(duì)我們來(lái)說(shuō)也是一種義務(wù)。

網(wǎng)友:改名GPT-4.5,搞定

那對(duì)于這個(gè)驚爆的大瓜,網(wǎng)友們信不信呢?

有人認(rèn)為,這一串發(fā)言,完全就是欲蓋彌彰,把GPT-5這個(gè)名字改成GPT-4.5不就完事了么。

這一網(wǎng)友也很損地翻譯了一下Altman的話,‘這個(gè)發(fā)言總結(jié)起來(lái)就是,我們沒(méi)搞GPT-5,搞的是GPT-4.99999?!?/p>

這位網(wǎng)友腦洞更大,‘我們沒(méi)有在訓(xùn)練GPT-5,這是虛假消息。我們訓(xùn)練的AI叫GPT-10,然后我們會(huì)讓GPT-10去開(kāi)發(fā)一個(gè)既安全又合理的GPT-5,再弄9個(gè)版本之后,我們就可以公之于眾啦?!?/p>

而另一邊,Sam Altman曾經(jīng)的好兄弟、OpenAI曾經(jīng)的聯(lián)合創(chuàng)始人之一馬斯克,最近也被爆出花大價(jià)錢買了10000個(gè)GPU(每顆約1萬(wàn)美元),還從谷歌那里高價(jià)挖人,要在推特內(nèi)部啟動(dòng)一項(xiàng)AI項(xiàng)目。

因?yàn)榻?jīng)營(yíng)理念不和、憤而退出OpenAI創(chuàng)始人席位的馬院士,究竟在憋什么大招呢?讓我們拭目以待。


相關(guān)內(nèi)容