整理 | 朱珂欣
破防了,接到“女兒”的求救電話,竟不能相信自己的耳朵!
今年年初,美國亞利桑那州的 Jennifer DeStefano 就遇到了“耳聽為虛”的騙局。
據(jù)《紐約郵報(bào)》報(bào)道,這通來自“女兒”的電話,實(shí)則是一起利用 AI 聲音克隆技術(shù)的勒索案。
01.AI 仿聲敲詐,需要 100 萬贖金
那天下午,Jennifer DeStefano 收到了一個(gè)陌生電話號(hào)碼的來電。
原本沒在意,但想起 15 歲的女兒正在外地滑雪,出于擔(dān)心就選擇了接聽。
誰料,聽到電話那頭傳來了女兒的哭喊聲:“媽媽!救我!”
緊接著,一位陌生男子開始發(fā)話:“你女兒在我這里,如果打電話報(bào)警或通知任何人,就把你女兒帶到墨西哥去‘注射毒品’和‘強(qiáng)奸’。”
恐慌之中, Jennifer DeStefano 還聽到電話那頭女兒的呼救,聲音非常真實(shí)。
男子還馬上談起了條件 —— 需要 100 萬美元的贖金才能放人。但得知無法支付那么多贖金后,男子又改口稱:“拿 5 萬美元來換你的女兒?!?/p>
在頓感事情蹊蹺之后, Jennifer DeStefano 選擇了迅速聯(lián)系丈夫,直到確認(rèn)女兒正在安全地滑雪中,才幸免被騙。
事后回憶起通話細(xì)節(jié)時(shí), Jennifer DeStefano 表示仍感到后怕,雖然如今明確這是電話詐騙,但想到“女兒的聲音”如此逼真,讓她細(xì)思極恐。
02.3秒即可克隆,多起詐騙案發(fā)生
經(jīng)過多方證實(shí),這是一起利用 AI 聲音克隆技術(shù)進(jìn)行的詐騙案。
針對(duì)這類基于 AI 的詐騙案,加州大學(xué)伯克利分校計(jì)算機(jī)科學(xué)教授、伯克利人工智能實(shí)驗(yàn)室成員 Hany Farid 對(duì) AI 克隆語音的生成原理,做出了詳細(xì)解釋。
AI 語音生成軟件,可以分析什么讓人的聲音與眾不同(包括年齡、性別和口音),并搜索龐大的聲音數(shù)據(jù)庫以找到相似的聲音,然后重新創(chuàng)造出相似整體效果的聲音。
它通常從 YouTube、播客、商業(yè)廣告、TikTok、Instagram 或 Facebook 等地方獲取音頻樣本。
此外,亞利桑那州立大學(xué)人工智能專業(yè)計(jì)算機(jī)科學(xué)教授 Subbarao Kambhampati 還認(rèn)為,AI 語音克隆技術(shù)正在迅速改進(jìn):“以前,克隆聲音需要從被克隆人身上獲取大量樣本?,F(xiàn)在,只需三秒鐘就可以克隆出一個(gè)接近你的聲音。”
該觀點(diǎn)也得到了 Hany Farid 的“證言”:“一個(gè)好的克隆可以用不到一分鐘的音頻創(chuàng)建,甚至幾秒鐘就足夠了。在 AI 軟件的幫助下,語音克隆只需每月 5 美元,任何人都可以使用?!?/p>
然而,由于目前這類技術(shù)幾乎沒有受到監(jiān)督,類似的“詐騙案”也不勝枚舉。
3 月,據(jù)《紐約郵報(bào)》報(bào)道,居住在匹茲堡的 Beth Royce 接到了“姐姐”的求救電話后,給“綁匪”寄了 1000 美元贖金。事后, Beth Royce 表示:“很難描述電話中‘姐姐’的聲音多么真實(shí)?!?/p>
甚至,以往被認(rèn)為安全的“聲紋”系統(tǒng)也存在明顯漏洞。
4 月 20 日,國內(nèi)郭先生收到了利用 AI 技術(shù)換臉和換聲后偽裝熟人的詐騙,“好友”稱自己在外投標(biāo)需要高昂的保證金,請(qǐng)求郭先生過戶 430 萬元。
3 月,《衛(wèi)報(bào)》澳大利亞版記者 Nick Evershed 表示,他使用人工智能做出自己的聲音,進(jìn)入了他的 Centrelink 自助服務(wù)賬戶。在《衛(wèi)報(bào)》調(diào)查后發(fā)現(xiàn),Centrelink 和澳大利亞稅務(wù)局(ATO)使用的“聲紋”安全系統(tǒng)其實(shí)是可以“被欺騙”的。
03.警方:“小心陌生電話,社交媒體的個(gè)人信息不公開!”
的確,在 ChatGPT、GPT-4 引領(lǐng)的浪潮之下, AI 提速科技變革帶來諸多便利,也難免讓眾人惶恐不安,例如:
谷歌 DeepMind 基于深度學(xué)習(xí)的原始音頻生成模型 WaveNet,在語音合成的聲學(xué)模型建模中,可直接學(xué)習(xí)到采樣值序列的映射,能高度模仿人類聲音;
AI 語音克隆算法項(xiàng)目 MockingBird,號(hào)稱能“5 秒內(nèi)克隆你的聲音并生成任意語音內(nèi)容”。
值得關(guān)注的是,當(dāng) AI 語音克隆技術(shù)用于正當(dāng)目的時(shí),能幫助語音合成、語音翻譯、語音恢復(fù)等,但它用于非法目的時(shí),將為偽造證據(jù)、欺詐勒索等行為提供可能。
知名安全機(jī)構(gòu) McAfee 對(duì)來自七個(gè)國家的 7054 人,針對(duì) AI 詐騙進(jìn)行了調(diào)查,結(jié)果顯示:近 1/4 的人遇到過某種形式的 AI 語音詐騙。
據(jù)聯(lián)邦貿(mào)易委員會(huì)最新發(fā)布的數(shù)據(jù)顯示,在 2022 年因欺詐損失金額的案件中,“冒名頂替者詐騙”的數(shù)量排名第二,全年共損失了 26 億美元。此外,在 240 萬份欺詐報(bào)告中,最常見的是冒名頂替詐騙報(bào)告。
聯(lián)邦調(diào)查局專家表示,詐騙者經(jīng)常在社交媒體上尋找目標(biāo)。
為了避免成為此類騙局的受害者, FBI 鳳凰城辦公室的助理特工 Dan Mayo 敦促大家:社交平臺(tái)的個(gè)人資料保持在私人模式,不要向公眾公開。
Dan Mayo 認(rèn)為:“必須把那些東西鎖起來,一旦公開將會(huì)面臨被騙的風(fēng)險(xiǎn),因?yàn)樗麄儠?huì)尋找有關(guān)你的公開信息,并隨之深入了解你?!?/p>
與此同時(shí),對(duì)于那些不熟悉的區(qū)號(hào)的電話號(hào)碼、國際號(hào)碼,需要格外警覺。
目前,雖然尚不清楚有多少人接聽到通過 AI 語音克隆進(jìn)行假綁架的詐騙電話,但 Dan Mayo 表示這種情況“每天都在發(fā)生”。
針對(duì)“ AI 語音克隆進(jìn)行假綁架”的相關(guān)新聞,許多網(wǎng)友也展開了相關(guān)討論。一些人認(rèn)為:“非常擔(dān)心家中的老人和小孩被‘詐騙’”;“感覺如果真的用了完全逼真的聲音進(jìn)行‘勒索’,完全是防不勝防。”還有網(wǎng)友調(diào)侃道:“現(xiàn)在是防火防盜,還要防 AI 了!”