香蕉在线视频网站,国产视频综合,亚洲综合五月天欧美,成人亚洲综合,日本欧美高清全视频,国产视频黄色,欧美高清在线播放

TikTok化身“正義判官”

繼本周二向美國聯(lián)邦法院提起訴訟后,TikTok再度化身“正義判官”。

本周四,TikTok宣布將推出自動標(biāo)記功能,以確保其識別AI生成視頻的內(nèi)容并得到相應(yīng)標(biāo)記。

值得注意的是,此前TikTok、Facebook和小紅書等社交平臺,已經(jīng)要求用戶主動披露所發(fā)布內(nèi)容是否由AI生成。

而TikTok最新舉措,旨在識別并自動標(biāo)記出外部AI生成的視頻和圖像。(包括使用Adobe的Firefly工具、TikTok自己的AI圖像生成器和OpenAI的Dall-E制作的內(nèi)容)

AI安全公司瑞萊智慧聯(lián)合創(chuàng)始人蕭子豪告訴虎嗅,AI生成圖像視頻內(nèi)容鑒別技術(shù)的主流方法有:檢測生物信號、周期性網(wǎng)格信號、違背常識特征等,目前技術(shù)在一些場景已經(jīng)可以達(dá)到95%到99%的檢出率。

有AI從業(yè)人員觀察到最近的趨勢是,包括TikTok、OpenAI、Meta等AI大小廠陸續(xù)上線AI標(biāo)識相關(guān)功能。

這是因?yàn)锳I深度偽造內(nèi)容正在播下混亂的種子,在社交平臺飛速傳播。

這些虛假內(nèi)容的泛濫,混淆選民視線,讓這個大選年更加成為“多事之秋”,也使得社交媒體面臨識別深度造假和防止錯誤信息傳播的壓力。

AI深偽內(nèi)容攪動大選年

今年是選舉歷史進(jìn)程的重要年份,在全球50多個國家和地區(qū),有世界一半人口參與選舉。相較去年,AI深偽內(nèi)容也變得更加引人注目和難以辨認(rèn),給大選年蒙上陰影。

一月,一名民主黨工作人員深度偽造了美國總統(tǒng)拜登電話呼叫,這則“假拜登來電”敦促新罕布什爾州初選選民不要去投票站。

冒充拜登的電話呼叫內(nèi)容為:把你們的選票留在11月份再投很重要。在這周二(23日)投票,只會讓共和黨人得逞,讓特朗普再次當(dāng)選為共和黨候選人。

在印度,今年有超過5億選民將會參與投票,這使得AI深偽政治內(nèi)容成了一門有利可圖的大生意。

AI內(nèi)容制作公司在印度政治人士中頗受追捧。這些公司向媒體透露,預(yù)計(jì)今年印度政黨在AI生成的競選材料上的支出將超過5000萬美元。

穆奧尼姆公司的創(chuàng)始人森希爾奈亞甘從一月開始為政治家創(chuàng)造AI內(nèi)容。他與泰米爾納德邦執(zhí)政黨合作,制作了一個AI視頻,視頻中該黨已故的標(biāo)志性領(lǐng)袖M·卡魯納尼迪被“數(shù)字復(fù)活”并為州政府背書。

AI內(nèi)容機(jī)構(gòu)Avantari Technologies幾乎每天都收到制作政治人物深偽視頻的請求,出于道德層面的考慮他們拒絕了這些請求。

但這個選舉季,仍有一些政治深偽視頻在印度互聯(lián)網(wǎng)開啟了病毒式傳播,比如著名寶萊塢明星阿米爾·汗批評莫迪的視頻。

而深偽色情內(nèi)容也被更多得用在女性政客身上,有專家稱深偽內(nèi)容的興起,甚至可能會改變競選公職人員的性別比例。

去年,孟加拉反對黨政客魯米恩·法爾哈納就經(jīng)受了這種人格誹謗,社交媒體上出現(xiàn)她穿比基尼的AI深偽照片。

在孟加拉國這個穆斯林占多數(shù)的保守國家,這張照片在社交媒體上引起了軒然大波,許多選民認(rèn)為這張照片是真實(shí)的。

“無論出現(xiàn)什么新事物,它總是首先針對女性。他們在每一起案件中都是受害者,”法爾哈納說, “人工智能都不例外?!?/p>

AI大廠拿起“雷神之錘”

在全球范圍內(nèi),AI深偽內(nèi)容不斷增長,“唯一阻止我們制造不道德的深度偽造品的,是我們的道德規(guī)范,”相關(guān)從業(yè)人員告訴媒體。“但要阻止這種情況非常困難?!?/p>

這是因?yàn)榘绹趦?nèi)的許多國家,并沒有在國家層面針對這些內(nèi)容采取監(jiān)管行動。

在缺乏監(jiān)管的情況下,Adobe、微軟等20家科技公司自發(fā)達(dá)成“內(nèi)容真實(shí)性倡議”(Content Authenticity Initiative)聯(lián)盟,以控制深偽內(nèi)容得擴(kuò)散。

本周四,TikTok表示將加入這個聯(lián)盟,并計(jì)劃開始對AI生成圖像視頻內(nèi)容進(jìn)行標(biāo)記。該聯(lián)盟將在AI生成產(chǎn)品中納入內(nèi)容憑證。

“我們還制定了禁止未標(biāo)記的真實(shí)人工智能內(nèi)容的政策。如果真實(shí)人工智能(生成的內(nèi)容)出現(xiàn)在平臺上,那么我們將因違反社區(qū)準(zhǔn)則而將其刪除?!盩ikTok運(yùn)營、信任和安全主管Adam Presser表示。

Meta本月早些時(shí)候表示,它將開始檢測谷歌、OpenAI、微軟、Adobe和Midjourney插入的隱形標(biāo)志物,為AI生成的內(nèi)容打上“AI制作水印”。針對不易識別的AI深偽內(nèi)容,Meta還表示,它正在開發(fā)深度偽造檢測分類器。

在周二,OpenAI也宣布加入這一聯(lián)盟,并將元信息嵌入其圖像模型Dall-E 3生成的所有圖像。OpenAI還表示,在視頻生成模型Sora發(fā)布后,會采取相同的措施打上AI標(biāo)識。

蕭子豪告訴虎嗅,OpenAI的AI標(biāo)識技術(shù),比較成熟的做法是在AI生成圖像的頭文件里添加相關(guān)隱藏字符段。

這種做法類似于在AI圖像內(nèi)部打上"看不見的水印",在傳播前就打好了標(biāo)簽,用戶肉眼不可見。好處是不影響觀感,圖片在上傳到TikTok、Facebook等社交平臺后可以很容易識別出來并自動標(biāo)識。

之前較為傳統(tǒng)的在圖片右下角打上“AI生成標(biāo)識”外部水印,雖然肉眼可見較為明顯,但是如果通過截圖完全可以去掉外部水印,進(jìn)行二次傳播。而要抹除OpenAI這種內(nèi)部水印,則需要更為復(fù)雜的技術(shù)手段。

這種AIGC工具的標(biāo)識方法成本并不高,但由于國外寬松的監(jiān)管條件,因此除上文提及的大廠外,其他AIGC生成工具平臺,并沒有大規(guī)模針對AI內(nèi)容打上“AI水印”。

技術(shù)宅拯救世界

那么TikTok等社交媒體該如何檢測這些沒有提前打上“AI水印”的虛假視頻和圖像呢?

這就涉及到更為復(fù)雜的深度偽造檢測分類。

蕭子豪表示,針對這類無標(biāo)識AI內(nèi)容,目前有兩種主流鑒別路線。

第一條,通過深度學(xué)習(xí)算法識別內(nèi)容中違背常識的部分。例如,AI深偽生成的人物可能有著與常人不同眨眼頻率等生物特征,此外還可以依據(jù)光照不一致性、心率等特征判斷。

英特爾實(shí)驗(yàn)室的Demir解釋道:“當(dāng)你的心臟泵血時(shí),血液流向靜脈,靜脈的顏色會因氧含量而改變。這個顏色變化對我們的眼睛是不可見的;我不能僅憑觀察視頻來看出你的心率。但這種顏色變化在計(jì)算上是可見的,從而可以檢測出一個人是真實(shí)的還是合成的。”

這種方法需要給模型輸入真實(shí)和AI生成的內(nèi)容數(shù)據(jù)集,并在此基礎(chǔ)上加入與常識有關(guān)的規(guī)則算法約束。而這種違背常識的視頻,效果并不真實(shí),實(shí)際上本身就很容易被人肉眼識別出來。

而對于效果較為逼真、人眼難以識別的AI內(nèi)容,則需要引入第二條鑒別路線——識別對抗模型和擴(kuò)散模型特有的信號特征。

目前,AI圖片生成模型應(yīng)用較多的是對抗模型和擴(kuò)散模型,而研究發(fā)現(xiàn),它可能會在頻譜上保留周期性網(wǎng)格狀特征。

這部分是由于這種模型用到的卷積神經(jīng)網(wǎng)絡(luò)算法,會重復(fù)對整個畫面進(jìn)行信號處理,因此會保留周期性特征。

目前的趨勢是:隨著AI深偽內(nèi)容技術(shù)的不斷提高,深偽鑒別技術(shù)越發(fā)依賴第二種路線,這種路線對團(tuán)隊(duì)的人工智能理論研究和實(shí)踐能力要求更高。

而在深偽鑒別的應(yīng)用落地層面,國內(nèi)要比國外起步早,技術(shù)也并不比國外差。

這是因?yàn)椋篈I深偽技術(shù)主要應(yīng)用于人臉,而國內(nèi)的人臉識別應(yīng)用較多,間接催生了深偽鑒別需求。因此國內(nèi)深偽鑒別技術(shù)業(yè)務(wù)開展較早,積累也更好。而國外在OpenAI引領(lǐng)的AIGC浪潮開始后,才開始大規(guī)模關(guān)注深偽鑒別技術(shù)。

蕭子豪告訴虎嗅:深偽鑒別技術(shù)需要突破的瓶頸在于算法理論和數(shù)據(jù)收集。

目前,AIGC技術(shù)的飛速發(fā)展,使得Sora等新的AI生成內(nèi)容工具和技術(shù)持續(xù)涌現(xiàn),在AI安全的攻防層面也有了獨(dú)特的張力,要求在防御層面要及時(shí)追趕最新的攻擊。

因此要及時(shí)收集最新深偽技術(shù)數(shù)據(jù),分析偽造方法的演化,提升偽造分析的能力,來不斷迭代更新產(chǎn)品。


相關(guān)內(nèi)容