滑鐵盧大學(UW)網絡安全博士生安德烈·卡西斯(Andre Kassis)在使用Deepfake AI生成的錄音錄製的賬戶訪問了一個生物識別技術後發表了他的發現。
研究表明,黑客可以用目標錄製的五分鐘的聲音來創建一個深層聲音,這可以從社交媒體上的公開帖子中獲取。 GitHub的開源AI軟件可以創建可以超越語音身份驗證的DeepFake音頻。
他使用Deepfake暴露了Amazon Connect語音身份驗證系統中的弱點您的釋放揭示。對Connect的四秒鐘攻擊的成功率為10%,攻擊接近30秒是成功的40%。
作為回應,該公司添加了生物識別抗散熱軟件,該軟件可以在語音錄製中找到數字標記,從而揭示了它是由機器還是人製造的。這起作用了,直到卡西斯使用自由軟件從他的深擊中刪除數字標記為止。
根據六次嘗試,他的方法可以繞過較少複雜的語音生物識別認證系統,成功率為99%。公告。
“我們的攻擊,”卡西斯說他的期刊文章“針對所有欺騙對策共享的常見失敗點,使其實時,模型不合時宜和完全黑框,而無需與目標互動以製作攻擊樣品。”對策使用易於識別和可寬恕的提示來區分欺騙和真實的音頻。
卡西斯(Kassis)主管和報告合著者Urs Hengartner教授Urs Hengartner教授說:“通過證明不安全感語音身份驗證,我們希望依靠語音身份驗證作為其唯一身份驗證因素的公司將考慮部署其他或更強大的身份驗證措施。 ”