Gartner:預計到2026年,30%的企業將因為AI生成的深度偽造而認為身份認證與驗證解決方案無法起到可靠的隔離作用
根據Gartner公司的預測,到2026 年,30%的企業將因為人工智能(AI)生成的人臉生物識別深度偽造攻擊而認為此類身份認證和驗證解決方案不再能夠起到可靠的作用。
本文引用地址:http://www.ex-cimer.com/article/202402/455627.htm
Gartner研究副總裁Akif Khan表示:“過去十年在AI領域出現的幾個拐點使創建合成圖像成為了可能。這些人工生成的真實人臉圖像被稱為深度偽造,惡意行為者可利用這個手段騙過生物識別身份驗證或令其失效。其后果是,企業可能會因為身份認證和驗證解決方案無法分辨被驗證者的臉是真人還是深度偽造,而開始質疑它們的可靠性?!?/p>
目前,使用人臉生物識別技術的身份認證和驗證流程依賴于呈現攻擊檢測(PAD)評估用戶的真實性。Khan表示:“數字注入攻擊已經開始利用目前能夠通過AI生成的深度偽造,而當前定義和評估PAD機制的標準與測試流程并未涵蓋此類攻擊?!?/p>
Gartner的研究表明,雖繞呈現攻擊是最常見的攻擊載體,但注入攻擊(IAD)在2023年增長了200%。為防范此類攻擊,需要結合使用PAD、IAD與圖像檢測。
通過結合使用IAD與圖像檢測工具減少深度偽造威脅
為幫助企業防范能夠騙過人臉生物識別技術的AI生成深度偽造威脅,首席信息安全官(CISO)與風險管理領導人必須選擇能夠證明自己具備超越當前標準的能力和計劃,并且正在對這些新型攻擊進行監視、分類和量化的廠商。
Khan表示:“企業應該與專門投資于使用IAD和圖像檢測技術減少這種新型深度偽造威脅的廠商合作,開始制定最低的控制標準?!?/p>
在制定戰略和最低標準后,CISO和風險管理領導人必須添加設備識別、行為分析等額外的風險和識別信號,以便提高檢測到身份驗證流程受到攻擊的幾率。
最重要的是,負責身份和訪問管理的安全與風險管理領導人應該行動起來,通過選擇能夠驗證真人的技術和落實防止賬戶接管的措施來降低AI深度偽造攻擊所帶來的風險。
Gartner客戶可以在“2024年預測:人工智能和網絡安全——化變革為機遇”中了解更多信息。
評論