首頁 > 科技要聞 > 科技> 正文

AI照妖鏡一眼判真假:網(wǎng)頁圖像視頻都能鑒,邊播邊識別,清華獨角獸成果

量子位 整合編輯:太平洋科技 發(fā)布于:2024-06-24 15:00

每個人都能擁有有檢測AI造假的“照妖鏡”了!

清華系獨角獸初創(chuàng)公司,發(fā)布了面向個人的產(chǎn)品級檢測工具,可以讓AI偽造的圖像、音頻和視頻現(xiàn)出原形

而且無需上傳素材,在網(wǎng)頁和視頻會議中就能主動探測內(nèi)容和人臉真?zhèn),?span style="color:rgb(0,153,127);">實時給出提示。

該工具由清華大學(xué)朱軍教授與學(xué)生田天博士等一同創(chuàng)立的瑞萊智慧(RealAI)打造,名字叫做“尊嘟假嘟”,英文名RealBelieve。

隨著視頻生成模型質(zhì)量的不斷提高,辨別AI造假也越來越困難,為此,團隊基于深度學(xué)習(xí)技術(shù),構(gòu)建了一整套多模態(tài)、多角度的AIGC檢測技術(shù)體系。

“尊嘟假嘟”正是在這套技術(shù)之上建立,目前已開啟內(nèi)測招募,通過申請后即可體驗。

吃瓜群眾的“AI照妖鏡”

從背景和人臉的替換,到利用AI模型讓人做出指定的表情或動作,AI造假可謂是防不勝防。

一方面,不法分子利用AI炮制虛假內(nèi)容,對受害者個人聲譽和社會輿論都帶來了極大的不良影響;

另一方面,AI造假也被用于詐騙活動,不僅損害被冒充者的信譽,也給受騙者帶來巨大的財產(chǎn)損失。

今年年初,就有不法分子利用深度偽造制作了一場假的視頻會議,騙走了一家公司1.8億元的巨款。

除了正確引導(dǎo)和加大打擊力度,讓用戶能夠更好地判別信息真?zhèn),也是一種重要的防護手段。

過去的AI造假檢測工具主要面向?qū)I(yè)人士,而且往往需要將內(nèi)容提取后上傳到檢測平臺中,才能進行判別。

但如果只是普通的網(wǎng)絡(luò)視頻,讓吃瓜群眾用這樣的流程去鑒別真?zhèn),難免顯得有些繁瑣。

所以在支持上傳檢測的同時,“尊嘟假嘟”還能主動進入視頻流,用戶一邊吃瓜,系統(tǒng)就能一邊判斷這瓜到底“保不保熟”。

比如一進入Sora的宣傳頁面,系統(tǒng)就會針對網(wǎng)頁里的Demo視頻做出提示標(biāo)注,提醒瀏覽者該視頻“AI含量”極高。

另外針對AI詐騙日益猖獗的情況,尊嘟假嘟也支持視頻通話當(dāng)中進行AI合成實時監(jiān)測防護。

視頻通話時,同樣無需截取視頻上傳,尊嘟假嘟會及時主動給用戶發(fā)出預(yù)警內(nèi)容,提示視頻對方的人臉是否存在AI合成的風(fēng)險。

實時的風(fēng)險提示可以幫助用戶及時調(diào)整聊天方式,快速確認對方的身份,減少不必要的損失,讓用戶隨時隨地在“AI安全保障”下進行視頻通話。

AI造假與防偽的“貓鼠游戲”

針對“尊嘟假嘟”背后的技術(shù)原理,瑞萊智慧聯(lián)合創(chuàng)始人、算法科學(xué)家蕭子豪透露,該產(chǎn)品背后的檢測模型基于貝葉斯深度學(xué)習(xí)技術(shù)開發(fā)

團隊構(gòu)建了一整套多模態(tài)AIGC檢測技術(shù)體系,能夠挖掘并建模多模態(tài)、多層次、多角度的AI合成線索,度量真假差異,并進行不確定性推理決策。

實際上,造假手段與防御方式之間,一直在進行著一場“貓鼠游戲”。

起初的AIGC內(nèi)容還是“一眼假”,然后再“進化”一些之后,多加注意也依然能夠通過常識進行肉眼判別,比如視頻中人物的眨眼頻率不合常理、部分區(qū)域的銜接不夠自然等等。

但隨著AIGC能力的升級,這些“常識”也逐漸被模型所掌握,靠肉眼鑒別也越來越困難了,于是檢測手段也在進化,人們開始研究用機器學(xué)習(xí)的手段進行分析。

比如通過對目標(biāo)內(nèi)容的信號頻譜進行分析,或者對圖像中的噪聲進行檢測,挖掘內(nèi)容當(dāng)中的“AI痕跡”。

但這場你追我趕的爭斗從未停止,一方面的原因是,用來檢測AI的模型本身也是個AI,偽造者可以通過對抗訓(xùn)練的方式規(guī)避檢測、見招拆招。

相對于造假而言,鑒別的手段似乎往往是滯后的。所以,瑞萊智慧在研究檢測算法的同時,也會針對自己的方法進行防御性攻擊,爭取讓檢測走在造假的前面。

實際上,瑞萊智慧團隊早在2018年成立之初,主要的研究目標(biāo)就是AI合成檢測技術(shù),先后推出面向?qū)I(yè)人士的AI內(nèi)容檢測平臺DeepReal、人臉AI安全防火墻RealGuard等相關(guān)產(chǎn)品并持續(xù)迭代升級。

縱觀整個行業(yè),AI安全問題都備受關(guān)注,深度學(xué)習(xí)教父Hinton,還有ChatGPT的發(fā)明者、OpenAI前首席科學(xué)家Ilya,都一直在呼吁人們關(guān)注AI安全。

就在這兩天,Ilya剛剛宣布創(chuàng)立了一家公司,研究的就是安全超級智能。

不過相比之下,Ilya的公司,似乎更加關(guān)注的是AI的未來,而在現(xiàn)在,對AI造假的判別和檢測依然是一項緊迫的任務(wù)。

PS:目前,尊嘟假嘟RealBelieve已開啟內(nèi)測招募。通過申請后,便能試用上述功能,感興趣的讀者可以通過評論區(qū)置頂鏈接報名。

本文來源:量子位

網(wǎng)友評論

聚超值•精選

推薦 手機 筆記本 影像 硬件 家居 商用 企業(yè) 出行 未來
二維碼 回到頂部