關(guān)上Deepfake的潘多拉魔盒,我們做到了
誕生之初,Deepfake是一項(xiàng)有趣的圖像處理技術(shù),僅僅帶來搞笑和娛樂視頻,但殊不知,潘多拉魔盒就此被打開,催生出色情黑產(chǎn)、惡搞政客“操縱”民意,Deepfake正逐步進(jìn)化為一種新型“病毒”,人類倫理道德的“遮羞布”也被無情揭開。
本文引用地址:http://www.ex-cimer.com/article/201912/408469.htm面對(duì)因新技術(shù)而引發(fā)的公眾恐慌,相關(guān)監(jiān)管機(jī)構(gòu)加快采取行動(dòng),出臺(tái)“打假”策略,旨在打擊Deepfake虛假內(nèi)容,控制“造假病毒”的傳播。
11月29日,國(guó)家網(wǎng)信辦正式發(fā)布《網(wǎng)絡(luò)音視頻信息服務(wù)管理規(guī)定》,指出自明年1月1日起,AI造假視頻不得隨意發(fā)布。新規(guī)定中關(guān)于AI造假音視頻的規(guī)定主要有四條:“按照國(guó)家有關(guān)規(guī)定開展安全評(píng)估”、“以顯著方式予以標(biāo)識(shí)”非真實(shí)音頻信息、不得利用AI造假技術(shù)發(fā)布虛假新聞、部署AI造假音視頻鑒別技術(shù)和健全辟謠機(jī)制等。
不難發(fā)現(xiàn),為了有效抑制Deepfake虛假內(nèi)容的傳播需要“兩手抓”,除了利用法律法規(guī)嚴(yán)控“別有用心者”作惡,更要從源頭加強(qiáng)安全評(píng)估能力,借助技術(shù)手段提前布局,在鑒別檢測(cè)方面領(lǐng)先一步。近日,RealAI正式發(fā)布了一款Deepfake視頻檢測(cè)工具,可一鍵實(shí)現(xiàn)對(duì)深度偽造(Deepfake)視頻進(jìn)行自動(dòng)精準(zhǔn)識(shí)別。
01
一鍵換臉到一鍵“打假”
目前大規(guī)模應(yīng)用的“打假”方法面臨諸多困難。
Deepfake的開源技術(shù)讓AI換臉的操作門檻降低到手機(jī)美顏、P圖的水平,一鍵換臉帶來了“造謠”成本的降低、爆炸式的傳播,但市面上缺乏標(biāo)準(zhǔn)化的檢測(cè)工具,人工鑒別的專業(yè)性要求高且效率低,所以,無論對(duì)于個(gè)人、平臺(tái)還是第三方機(jī)構(gòu)而言,打假辟謠的時(shí)間窗口很短,難度卻很高。
另外,更嚴(yán)重的問題在于,很多情況下Deepfake“以假亂真”的程度極高,人眼難以察覺。加之Deepfake 的算法目前還無法建模分析,檢測(cè)技術(shù)的研究被嚴(yán)重影響,而造假方的適應(yīng)速度卻很快,新技術(shù)日益迭代。
RealAI基于第三代AI技術(shù)推出的Deepfake視頻檢測(cè)產(chǎn)品通過采用“數(shù)據(jù)增廣”的方式,用偽造視頻訓(xùn)練出一個(gè)新的模型,從而讓模型能夠更好的識(shí)別出偽造痕跡,分辨出造假視頻,可謂“魔高一尺,道高一丈”。該產(chǎn)品支持圖像、視頻內(nèi)容鑒別,用戶基于API接口將待檢測(cè)的圖片、視頻上傳,一鍵即可反饋真?zhèn)巍?/p>
雖然早已有團(tuán)隊(duì)在開展針對(duì)Deepfake的“打假”研究,但相關(guān)的成果僅停留在算法層面,更多的是為學(xué)術(shù)研究提供使用,無法應(yīng)對(duì)真實(shí)環(huán)境下大范圍傳播的虛假內(nèi)容,所以,RealAI推出的這款標(biāo)準(zhǔn)化自動(dòng)檢測(cè)工具可以說給規(guī)?;摹按蚣佟毙袆?dòng)帶來了新希望。
02
準(zhǔn)確率高達(dá)90%,Deepfake在劫難逃
作為清華大學(xué)人工智能研究院的核心孵化企業(yè),RealAI在AI安全與攻防技術(shù)領(lǐng)域擁有業(yè)界領(lǐng)先優(yōu)勢(shì)。在今年剛結(jié)束的GeekPwn2019國(guó)際安全極客大賽中,RealAI與清華大學(xué)聯(lián)合戰(zhàn)隊(duì)一舉獲得“CAAD CTF 圖像對(duì)抗樣本挑戰(zhàn)賽”以及“CAAD 隱身挑戰(zhàn)賽”兩項(xiàng)比賽的冠軍。
深厚的技術(shù)積累讓RealAI安全研究團(tuán)隊(duì)對(duì)“造假方”的攻擊原理有著更深刻的理解,能夠更有針對(duì)性地開發(fā)檢測(cè)工具。
RealAI推出的這款Deepfake視頻檢測(cè)產(chǎn)品操作簡(jiǎn)單,原本高難度的檢測(cè)過程被大幅簡(jiǎn)化,只需接入SDK即可實(shí)時(shí)檢測(cè),調(diào)用簡(jiǎn)單快捷。
與目前市面上已有的檢測(cè)技術(shù)相比,RealAI的Deepfake視頻檢測(cè)工具利用深度學(xué)習(xí)算法、大量數(shù)據(jù)集訓(xùn)練模型,能夠檢測(cè)出絕大多數(shù)AI換臉假視頻,準(zhǔn)確率高達(dá)90%以上。面對(duì)Deepfake換臉效果越來越逼真的情況,RealAI的研發(fā)團(tuán)隊(duì)也在集中研發(fā)新型的檢測(cè)算法,不斷迭代和更新檢測(cè)算法庫(kù)。
更值得注意的是,該產(chǎn)品適用于復(fù)雜視頻內(nèi)容檢測(cè),支持多人臉檢測(cè),最高可支持10人以上同屏。
03
Deepfake的潘多拉魔盒終將被關(guān)上
隨著Deepfake技術(shù)被濫用,傳統(tǒng)意義上“真實(shí)”與“虛假”的界限被模糊,這對(duì)于社會(huì)生活的影響之大或許此前我們并未預(yù)想到,但如今技術(shù)作惡所帶來的負(fù)面影響正全面爆發(fā)。
● 面對(duì)網(wǎng)絡(luò)上肆意傳播的視頻、圖片內(nèi)容,內(nèi)容平臺(tái)傳統(tǒng)的審核機(jī)制無法辨別Deepfake生成內(nèi)容,若采用人工審核,需要投入額外的時(shí)間、人力成本;
● 面對(duì)個(gè)人被編造虛假信息在社交平臺(tái)上廣泛傳播,處于輿論中心的當(dāng)事人由于找不到能夠證實(shí)“謠言”是捏造的有效途徑,個(gè)人聲譽(yù)因此受損;
● 面對(duì)案件調(diào)查、法庭辯論中涉及的視頻、圖像等證據(jù)材料,警察、律師無法單憑肉眼識(shí)別證據(jù)是否基于Deepfake偽造,需要專業(yè)工具鑒定真?zhèn)危?/p>
● 面對(duì)事故中真?zhèn)坞y辨的影像資料,保險(xiǎn)公司的審查人員缺乏Deepfake造假認(rèn)知以及不配備專業(yè)鑒別能力,存在詐騙理賠的風(fēng)險(xiǎn)。
“人人都怕?lián)Q臉術(shù)”的恐慌讓反Deepfake的檢測(cè)需求變的異常迫切,RealAI推出這款Deepfake視頻檢測(cè)產(chǎn)品可謂適逢其時(shí)。
通過與內(nèi)容平臺(tái)、執(zhí)法部門、保險(xiǎn)公司等機(jī)構(gòu)開展合作,該產(chǎn)品能夠在虛假內(nèi)容甄別、線上資料審核以及影像物證真實(shí)性檢驗(yàn)等實(shí)際應(yīng)用場(chǎng)景中發(fā)揮作用,幫助機(jī)構(gòu)與個(gè)人更好的進(jìn)行信息管控與風(fēng)險(xiǎn)預(yù)警。
在這場(chǎng)AI軍備競(jìng)賽中,Deepfake將持續(xù)演化,RealAI也將持續(xù)迭代技術(shù)、打磨產(chǎn)品,我們相信未來AI必然是安全可控的AI,一鍵“打假”終將超越一鍵換臉的速度,Deepfake的潘多拉魔盒也終將被關(guān)上。
評(píng)論