<meter id="pryje"><nav id="pryje"><delect id="pryje"></delect></nav></meter>
          <label id="pryje"></label>

          新聞中心

          EEPW首頁 > 智能計(jì)算 > 業(yè)界動態(tài) > 關(guān)上Deepfake的潘多拉魔盒,我們做到了

          關(guān)上Deepfake的潘多拉魔盒,我們做到了

          作者: 時間:2019-12-23 來源:RealAI瑞萊智慧 收藏

          誕生之初,是一項(xiàng)有趣的圖像處理技術(shù),僅僅帶來搞笑和娛樂視頻,但殊不知,就此被打開,催生出色情黑產(chǎn)、惡搞政客“操縱”民意,正逐步進(jìn)化為一種新型“病毒”,人類倫理道德的“遮羞布”也被無情揭開。

          本文引用地址:http://www.ex-cimer.com/article/201912/408469.htm

          面對因新技術(shù)而引發(fā)的公眾恐慌,相關(guān)監(jiān)管機(jī)構(gòu)加快采取行動,出臺“打假”策略,旨在打擊虛假內(nèi)容,控制“造假病毒”的傳播。

          11月29日,國家網(wǎng)信辦正式發(fā)布《網(wǎng)絡(luò)音視頻信息服務(wù)管理規(guī)定》,指出自明年1月1日起,造假視頻不得隨意發(fā)布。新規(guī)定中關(guān)于造假音視頻的規(guī)定主要有四條:“按照國家有關(guān)規(guī)定開展安全評估”、“以顯著方式予以標(biāo)識”非真實(shí)音頻信息、不得利用造假技術(shù)發(fā)布虛假新聞、部署AI造假音視頻鑒別技術(shù)和健全辟謠機(jī)制等。

          不難發(fā)現(xiàn),為了有效抑制Deepfake虛假內(nèi)容的傳播需要“兩手抓”,除了利用法律法規(guī)嚴(yán)控“別有用心者”作惡,更要從源頭加強(qiáng)安全評估能力,借助技術(shù)手段提前布局,在鑒別檢測方面領(lǐng)先一步。近日,RealAI正式發(fā)布了一款Deepfake視頻檢測工具,可一鍵實(shí)現(xiàn)對深度偽造(Deepfake)視頻進(jìn)行自動精準(zhǔn)識別。

          01

          一鍵換臉到一鍵“打假”

          目前大規(guī)模應(yīng)用的“打假”方法面臨諸多困難。

          Deepfake的開源技術(shù)讓AI換臉的操作門檻降低到手機(jī)美顏、P圖的水平,一鍵換臉帶來了“造謠”成本的降低、爆炸式的傳播,但市面上缺乏標(biāo)準(zhǔn)化的檢測工具,人工鑒別的專業(yè)性要求高且效率低,所以,無論對于個人、平臺還是第三方機(jī)構(gòu)而言,打假辟謠的時間窗口很短,難度卻很高。

          另外,更嚴(yán)重的問題在于,很多情況下Deepfake“以假亂真”的程度極高,人眼難以察覺。加之Deepfake 的算法目前還無法建模分析,檢測技術(shù)的研究被嚴(yán)重影響,而造假方的適應(yīng)速度卻很快,新技術(shù)日益迭代。

          RealAI基于第三代AI技術(shù)推出的Deepfake視頻檢測產(chǎn)品通過采用“數(shù)據(jù)增廣”的方式,用偽造視頻訓(xùn)練出一個新的模型,從而讓模型能夠更好的識別出偽造痕跡,分辨出造假視頻,可謂“魔高一尺,道高一丈”。該產(chǎn)品支持圖像、視頻內(nèi)容鑒別,用戶基于API接口將待檢測的圖片、視頻上傳,一鍵即可反饋真?zhèn)巍?/p>

          雖然早已有團(tuán)隊(duì)在開展針對Deepfake的“打假”研究,但相關(guān)的成果僅停留在算法層面,更多的是為學(xué)術(shù)研究提供使用,無法應(yīng)對真實(shí)環(huán)境下大范圍傳播的虛假內(nèi)容,所以,RealAI推出的這款標(biāo)準(zhǔn)化自動檢測工具可以說給規(guī)?;摹按蚣佟毙袆訋砹诵孪M?。

          02

          準(zhǔn)確率高達(dá)90%,Deepfake在劫難逃

          作為清華大學(xué)人工智能研究院的核心孵化企業(yè),RealAI在AI安全與攻防技術(shù)領(lǐng)域擁有業(yè)界領(lǐng)先優(yōu)勢。在今年剛結(jié)束的GeekPwn2019國際安全極客大賽中,RealAI與清華大學(xué)聯(lián)合戰(zhàn)隊(duì)一舉獲得“CAAD CTF 圖像對抗樣本挑戰(zhàn)賽”以及“CAAD 隱身挑戰(zhàn)賽”兩項(xiàng)比賽的冠軍。

          深厚的技術(shù)積累讓RealAI安全研究團(tuán)隊(duì)對“造假方”的攻擊原理有著更深刻的理解,能夠更有針對性地開發(fā)檢測工具。

          RealAI推出的這款Deepfake視頻檢測產(chǎn)品操作簡單,原本高難度的檢測過程被大幅簡化,只需接入SDK即可實(shí)時檢測,調(diào)用簡單快捷。

          與目前市面上已有的檢測技術(shù)相比,RealAI的Deepfake視頻檢測工具利用深度學(xué)習(xí)算法、大量數(shù)據(jù)集訓(xùn)練模型,能夠檢測出絕大多數(shù)AI換臉假視頻,準(zhǔn)確率高達(dá)90%以上。面對Deepfake換臉效果越來越逼真的情況,RealAI的研發(fā)團(tuán)隊(duì)也在集中研發(fā)新型的檢測算法,不斷迭代和更新檢測算法庫。

          更值得注意的是,該產(chǎn)品適用于復(fù)雜視頻內(nèi)容檢測,支持多人臉檢測,最高可支持10人以上同屏。

          03

          Deepfake的終將被關(guān)上

          隨著Deepfake技術(shù)被濫用,傳統(tǒng)意義上“真實(shí)”與“虛假”的界限被模糊,這對于社會生活的影響之大或許此前我們并未預(yù)想到,但如今技術(shù)作惡所帶來的負(fù)面影響正全面爆發(fā)。

          ● 面對網(wǎng)絡(luò)上肆意傳播的視頻、圖片內(nèi)容,內(nèi)容平臺傳統(tǒng)的審核機(jī)制無法辨別Deepfake生成內(nèi)容,若采用人工審核,需要投入額外的時間、人力成本;

          ● 面對個人被編造虛假信息在社交平臺上廣泛傳播,處于輿論中心的當(dāng)事人由于找不到能夠證實(shí)“謠言”是捏造的有效途徑,個人聲譽(yù)因此受損;

          ● 面對案件調(diào)查、法庭辯論中涉及的視頻、圖像等證據(jù)材料,警察、律師無法單憑肉眼識別證據(jù)是否基于Deepfake偽造,需要專業(yè)工具鑒定真?zhèn)危?/p>

          ● 面對事故中真?zhèn)坞y辨的影像資料,保險(xiǎn)公司的審查人員缺乏Deepfake造假認(rèn)知以及不配備專業(yè)鑒別能力,存在詐騙理賠的風(fēng)險(xiǎn)。

          “人人都怕?lián)Q臉術(shù)”的恐慌讓反Deepfake的檢測需求變的異常迫切,RealAI推出這款Deepfake視頻檢測產(chǎn)品可謂適逢其時。

          通過與內(nèi)容平臺、執(zhí)法部門、保險(xiǎn)公司等機(jī)構(gòu)開展合作,該產(chǎn)品能夠在虛假內(nèi)容甄別、線上資料審核以及影像物證真實(shí)性檢驗(yàn)等實(shí)際應(yīng)用場景中發(fā)揮作用,幫助機(jī)構(gòu)與個人更好的進(jìn)行信息管控與風(fēng)險(xiǎn)預(yù)警。

          在這場AI軍備競賽中,Deepfake將持續(xù)演化,RealAI也將持續(xù)迭代技術(shù)、打磨產(chǎn)品,我們相信未來AI必然是安全可控的AI,一鍵“打假”終將超越一鍵換臉的速度,Deepfake的也終將被關(guān)上。



          關(guān)鍵詞: Deepfake 潘多拉魔盒 AI

          評論


          相關(guān)推薦

          技術(shù)專區(qū)

          關(guān)閉
          看屁屁www成人影院,亚洲人妻成人图片,亚洲精品成人午夜在线,日韩在线 欧美成人 (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();