滑铁卢大学(UW)网络安全博士生安德烈·卡西斯(Andre Kassis)在使用Deepfake AI生成的录音录制的账户访问了一个生物识别技术后发表了他的发现。
研究表明,黑客可以用目标录制的五分钟的声音来创建一个深层声音,这可以从社交媒体上的公开帖子中获取。 GitHub的开源AI软件可以创建可以超越语音身份验证的DeepFake音频。
他使用Deepfake暴露了Amazon Connect语音身份验证系统中的弱点您的释放揭示。对Connect的四秒钟攻击的成功率为10%,攻击接近30秒是成功的40%。
作为回应,该公司添加了生物识别抗散热软件,该软件可以在语音录制中找到数字标记,从而揭示了它是由机器还是人制造的。这起作用了,直到卡西斯使用自由软件从他的深击中删除数字标记为止。
根据六次尝试,他的方法可以绕过较少复杂的语音生物识别认证系统,成功率为99%。公告。
“我们的攻击,”卡西斯说他的期刊文章“针对所有欺骗对策共享的常见失败点,使其实时,模型不合时宜和完全黑框,而无需与目标互动以制作攻击样品。”对策使用易于识别和可宽恕的提示来区分欺骗和真实的音频。
卡西斯(Kassis)主管和报告合着者Urs Hengartner教授Urs Hengartner教授说:“通过证明不安全感语音身份验证,我们希望依靠语音身份验证作为其唯一身份验证因素的公司将考虑部署其他或更强大的身份验证措施。”