IT之家 6 月 9 日消息,據(jù) NewAtlas 報道,研究人員利用自主協(xié)作的 GPT-4 機器人小組成功入侵了一半以上的測試網(wǎng)站,這些機器人可以自主協(xié)調(diào)行動并根據(jù)需要生成新的“幫手”。更令人吃驚的是,他們利用的是以前未知的、現(xiàn)實世界中從未公開的“零日”漏洞(zero-day vulnerabilities)。
圖源 Pexels
早在幾個月前,同一批研究人員就發(fā)表了一篇論文,聲稱他們能夠使用 GPT-4 自動利用“N day”漏洞,即業(yè)界已知但尚未修復(fù)的漏洞。實驗中,GPT-4 僅憑已知的常見漏洞和披露列表 (CVE),就能自主利用其中 87% 的嚴(yán)重級別漏洞。
本周,這支研究團隊發(fā)布了后續(xù)論文,稱他們已經(jīng)攻克了“零日”漏洞,也就是那些尚未被發(fā)現(xiàn)的漏洞。他們使用了一種名為 “任務(wù)特定智能體分層規(guī)劃”(HPTSA) 的方法,讓一群自主傳播的大型語言模型 (LLM) 協(xié)同作戰(zhàn)。
IT之家注意到,與以往由單個 LLM 嘗試解決所有復(fù)雜任務(wù)不同,HPTSA 方法采用了“規(guī)劃智能體” 負(fù)責(zé)整個過程的監(jiān)督,并派生多個用于特定任務(wù)的“子智能體”。就像老板和下屬一樣,規(guī)劃智能體負(fù)責(zé)協(xié)調(diào)管理,將任務(wù)分配給各個“專家子智能體”,這種分工方式減輕了單個智能體在難以攻克的任務(wù)上的負(fù)擔(dān)。
在針對 15 個真實網(wǎng)絡(luò)漏洞的測試中,HPTSA 在利用漏洞方面比單個 LLM 的效率高出 550%,并且成功利用了其中的 8 個零日漏洞,成功率達(dá) 53%,而單打獨斗的 LLM 只利用了 3 個漏洞。
研究人員之一、白皮書作者丹尼爾?康 (Daniel Kang) 特別指出,人們擔(dān)心這些模型會被惡意用于攻擊網(wǎng)站和網(wǎng)絡(luò),這的確是合理擔(dān)憂。但他同時強調(diào),聊天機器人模式下的 GPT-4“不足以理解 LLM 的能力”,本身無法進(jìn)行任何攻擊。
當(dāng) NewAtlas 的編輯詢問 ChatGPT 它是否能利用零日漏洞時,它回答說:“不,我不能利用零日漏洞。我的目的是在道德和法律框架內(nèi)提供信息和幫助?!辈⒔ㄗh其咨詢網(wǎng)絡(luò)安全專業(yè)人士。