Google AI能自行發(fā)展加密技術(shù) 防止第三方窺探
Google近年積極開發(fā)自有人工智能(AI)技術(shù),最新研究報告稱該公司打造的實驗AI系統(tǒng)已具備可自行設(shè)計加密演算法的能力,借此能夠達(dá)到保密目的,避免第三方窺探內(nèi)容。
本文引用地址:http://www.ex-cimer.com/article/201611/339654.htm這項研究成果稱為“用對抗神經(jīng)密碼技術(shù)學(xué)習(xí)安全通訊”,Google旗下Google Brain研究團(tuán)隊人員Martin Abadi及David Andersen在報告中,介紹神經(jīng)網(wǎng)路如何自行發(fā)展簡單加密技術(shù)以防止第三方窺探的技術(shù),且過程中無需外部輸入特定加密演算法即可進(jìn)行。
這套實驗Google Brain設(shè)計了“Bob”、“Alice”及“Eve”三個神經(jīng)網(wǎng)路,由Alice及Bob之間彼此收發(fā)訊息,訓(xùn)練Alice將一串16位元由0與1組成的訊息傳送給Bob,Bob則必須嘗試對發(fā)送的訊息解密,但不讓Eve獲得這組訊息內(nèi)容,要由Eve試圖窺探并解碼該訊息。Alice與Bob之間則擁有一個共享金鑰,即所謂的對稱加密。
研究人員只給定上述假設(shè)實驗情況,未指定Alice與Bob之間要以何種方法傳送訊息,所以上述所有AI都不知道如何進(jìn)行加密也不清楚應(yīng)使用何種加密技術(shù),僅透過可衡量損失及錯誤程度的損失函數(shù)來判斷自身表現(xiàn),并不斷演進(jìn)出正確的方法。
Alice、Bob及Eve都是采用相同的混合與轉(zhuǎn)換神經(jīng)網(wǎng)路,初始化皆是獨立進(jìn)行,Google研究人員在單顆繪圖芯片(GPU)系統(tǒng)中以TensorFlow反覆進(jìn)行這項實驗,由Alice不斷發(fā)送訊息給Bob接收及解讀,同時Eve也嘗試進(jìn)行解讀。
起初Bob及Eve的錯誤率都很高,但隨著測試次數(shù)增加,兩者的錯誤率都逐漸下降,約進(jìn)行到5,000~1萬步(step)之間的測試次數(shù)后,Eve的錯誤率開始減少,Bob更是大幅下降,不過1萬步后當(dāng)Alice與Bob改變加密方法后,Eve的錯誤率又開始攀升。
到了1.5萬步后Bob的錯誤率已降至幾近0,Eve的錯誤率則仍有一定程度,由此顯示Eve只是在進(jìn)行隨機(jī)猜測,Alice與Bob之間則已改善及發(fā)展出彼此能夠秘密通訊、防止Eve偷窺的方式。
Google研究人員未詳細(xì)分析Alice與Bob之間設(shè)計的是何種加密演算法,最后僅得出結(jié)論指出,神經(jīng)網(wǎng)路確實能夠進(jìn)行通訊內(nèi)容傳輸?shù)淖晕曳雷o(hù),且只需與Alice說明保密的重要性高于一切即可,無需事先告知要以何種加密演算法進(jìn)行保密。另一方面從Eve的實驗結(jié)果看來,Google研究人員則認(rèn)為神經(jīng)網(wǎng)路成為密碼分析專家的機(jī)率不高。未來Google還將針對其他加密演算法進(jìn)行實驗。
評論