三大頂級(jí)學(xué)府發(fā)布98頁(yè)人工智能報(bào)告:警告!AI面臨黑客攻擊風(fēng)險(xiǎn)
一份新的報(bào)告警告說(shuō),人工智能的快速發(fā)展正在增加危險(xiǎn),惡意用戶很快就會(huì)利用這項(xiàng)技術(shù)來(lái)安裝自動(dòng)黑客攻擊,導(dǎo)致無(wú)人駕駛汽車碰撞或?qū)⑸逃脽o(wú)人機(jī)變成有針對(duì)性的武器。
本文引用地址:http://www.ex-cimer.com/article/201802/375946.htm這項(xiàng)研究由來(lái)自劍橋、牛津和耶魯大學(xué)的25名技術(shù)和公共政策研究人員以及隱私和軍事專家于周三發(fā)布,他們對(duì)流氓國(guó)家、罪犯和孤狼襲擊者可能濫用人工智能的行為發(fā)出了警告。
研究人員說(shuō),人工智能的惡意使用會(huì)對(duì)數(shù)字、物理和政治安全構(gòu)成迫在眉睫的威脅,因?yàn)樗试S大規(guī)模、精細(xì)目標(biāo)、高效的攻擊。這項(xiàng)研究的關(guān)注重點(diǎn)是5年內(nèi)的合理發(fā)展。
“我們都認(rèn)為人工智能有很多積極的應(yīng)用。”牛津大學(xué)人類學(xué)院未來(lái)研究員邁爾斯·布倫達(dá)奇說(shuō),“但在有關(guān)惡意使用的文獻(xiàn)卻是一片空白。”
AI,即人工智能,包括使用計(jì)算機(jī)執(zhí)行通常需要人類智能的任務(wù),比如決策或識(shí)別文本、語(yǔ)音或視覺(jué)圖像。
人工智能被認(rèn)為是開(kāi)啟各種技術(shù)可能性的強(qiáng)大力量,但它已成為尖銳辯論的焦點(diǎn),即它所支持的大規(guī)模自動(dòng)化是否會(huì)導(dǎo)致廣泛的失業(yè)和其他社會(huì)混亂。
這篇98頁(yè)的文章警告說(shuō),通過(guò)使用AI來(lái)完成可能需要人力和專業(yè)知識(shí)的任務(wù),可能會(huì)降低攻擊的成本。 可能會(huì)出現(xiàn)新的攻擊,單靠人類獨(dú)自開(kāi)發(fā)或利用AI系統(tǒng)本身的脆弱性是不切實(shí)際的。
報(bào)告審查了越來(lái)越多的關(guān)于人工智能安全風(fēng)險(xiǎn)的學(xué)術(shù)研究,并呼吁各國(guó)政府和政策和技術(shù)專家合作并化解這些危險(xiǎn)。
研究人員詳細(xì)描述了人工智能的力量,以生成合成圖像、文字和音頻,以模仿他人的在線行為,以改變公眾的觀點(diǎn),并指出專制政權(quán)可能會(huì)使用這種技術(shù)。
該報(bào)告提出了一系列建議,包括將人工智能作為一種軍民兩用的軍事/商業(yè)技術(shù)。
它還提出了一些問(wèn)題,即學(xué)者和其他人是否應(yīng)該控制他們發(fā)布或披露人工智能的新進(jìn)展,直到該領(lǐng)域的其他專家有機(jī)會(huì)研究并對(duì)他們可能構(gòu)成的潛在危險(xiǎn)做出反應(yīng)。
“相比得到答案,最終會(huì)冒出更多問(wèn)題。”布倫達(dá)奇說(shuō)。
這篇論文是在2017年初的一個(gè)研討會(huì)上誕生的,它的一些預(yù)測(cè)在撰寫(xiě)的時(shí)候基本實(shí)現(xiàn)了。作者推測(cè),人工智能可以用來(lái)制作高度真實(shí)的虛假音頻和視頻,用于宣傳目的。
去年晚些時(shí)候,所謂的“deepfake”色情視頻開(kāi)始在網(wǎng)上出現(xiàn),明星們的面孔實(shí)際上融合到了不同的身體上。
“這發(fā)生在色情行業(yè),而非宣傳,”OpenAI的政策主管杰克·克拉克(Jack Clark)說(shuō),該集團(tuán)由特斯拉首席執(zhí)行官埃隆·馬斯克和硅谷投資家山姆·奧特曼(Sam Altman)創(chuàng)立,專注于造福人類的友好人工智能。“但是,沒(méi)有任何關(guān)于deepfake的東西表明它不會(huì)用于宣傳。”
評(píng)論