利用深度伪造进行的欺诈尝试已成为在线安全领域的一部分,组织转向演示攻击检测和注入攻击检测来对抗针对面部或语音生物识别系统的欺骗。他们还越来越多地部署多模式生物识别和信号分析工具。
上周举行了一次网络研讨会,展示了“保护联络中心免受人工智能驱动的语音欺诈”的愿景。联合创始人兼首席执行官 Ben Colman 和产品主管 Diana Hsieh 解释了该公司如何应用实时检测和多因素身份验证。
科尔曼指出,语音是最常被生成人工智能欺骗的方式,并展示了现实生活中语音深度伪造的例子。该公司发现,在每天为一级银行客户处理的 10,000 个电话中,有 0.17% 是深度伪造的。
Reality Defender 人类参与副总裁 Gabe Regan 在一家公司写道博客文章向实时、多模式深度伪造检测的转变代表了组织合成媒体检测方法的战略转变。
Regan 指出 Entrust 最近的研究显示,40% 的身份欺诈尝试均涉及针对生物识别系统的深度伪造攻击。
Daon 监视列表的新多信号方法
已获得一种建立更好的深度伪造语音观察列表的方法的专利。
专利“用于增强欺诈数据检测的方法和系统” 美国专利商标组织上周向 Daon 发布了该专利,并将首席技术官拉尔夫·罗德里格斯 (Ralph Rodriguez) 列为其发明人。
根据专利文件,当前的语音观察名单的价值正在下降,因为它们识别了生物识别系统的已知威胁,但无法适应不断发展的欺诈方法。他们还“通常无法充分分析与语音交互相关的行为模式,因此无法捕获可能表明欺诈活动的线索。”
该专利中描述的用于增强欺诈数据检测的系统由一个风险评分机制组成,该机制摄取行为、上下文和语音数据。对数据进行分析以对风险水平进行总体评估,高风险分数会触发审查或交易暂停等行动。与 Reality Defender 一样,分析是实时进行的,以发现与合成语音相关的异常情况。
Daon 计划在其内部部署创新技术Rodriguez 表示,2025 年生产部署的解决方案生物识别更新在一封电子邮件中。
印度人工智能项目中的 Deepfake 检测
在印度,MEITY(电子和信息技术部)倡议印度人工智能已发表个人和组织领导一系列开发项目以提高人工智能安全性和公平性的意向书。
IndiaAI 寻求为人工智能生成的内容添加水印或标签、执行人工智能风险评估和管理、压力测试和深度造假检测以及道德人工智能框架的工具。
Deepfake 检测工具应执行实时 Deepfake 识别和缓解。
申请现已开放至 2025 年 1 月 9 日,提交指南如下:可以在这里找到。
印度计算机紧急响应小组 (CERT-In) 在 11 月 27 日发布的咨询报告中认识到深度造假错误信息和欺诈行为的增加。这印度斯坦时报报道称,莫迪总统的印度人民党发布了几段虚假音频剪辑后发布了该建议。
BioID Deepfake 检测获奖
针对照片和视频的实时深度换脸检测技术于 11 月荣获第九届慕尼黑数字创新奖。
获奖者是在活动期间通过现场观众投票选出的,活动的主题是“Reality Check AI”。
BioID 首席执行官 Ho Chang 表示:“随着深度造假和冒充攻击的增加,保护数字身份比以往任何时候都更加重要。”
该公司推出了今年早些时候,该公司分析了面部特征以寻找操纵迹象。
文章主题
||||||||