宣布其基于人工智能的人脸欺骗检测能力“显着增强”,该公司博客说应用更“更全面的方法”来检测通过生成人工智能创建或增强的恶搞。
这些增强功能包括对人工智能模型留下的视觉伪影进行更强大的检测,改进对受损硬件和跨平台相似性的检测。提交,并通过人工智能的进步加强对威胁渠道的监控。
Persona 还将超过 25 个欺诈检测微模型集成到其政府 ID 和生物识别中在过去的两个月里。
帖子称:“为了捕获更多类型的面部欺骗,我们增加了支持政府身份证和自拍照验证的模型的召回率,并提高了它们的精度,以减少自动分析过程中的误报。”
鉴于日益复杂的硬件,受损硬件中的非视觉信号也很关键。、合成身份和其他类型的面部恶搞。可疑模式可能表明欺诈者正在探测 IDV 系统以测试新技术。
生成式人工智能使得欺诈检测难以跟上步伐
无论人们对生成人工智能的可能性感到兴奋还是担心其潜在的破坏性,它都已经存在并且必须作为欺诈的放大器来解决。 Persona 表示已经观察到过去几年增加了50倍。
“鉴于过去几年深度假货数量增加了 50 倍,很明显,Persona 首席执行官 Rick Song 在一份新闻稿中表示:“我们将继续改变欺诈格局。” “仅 2024 年,我们就帮助客户检测并阻止了超过 7500 万个利用基于人工智能的面部欺骗。”
简而言之,跟上基于人工智能的人脸欺骗的发展步伐变得越来越困难。这项技术已经存在了足够长的时间,不同类别的恶搞已经出现,而且武器库正在迅速变得更加多样化。
Persona 表示,“多年来,我们的微模型和集成模型已经识别出 50 多种不同类别的基于人工智能的面部欺骗,包括面部交换、合成面部和面部变形,欺诈者在(不成功的)尝试绕过我们的系统时使用了这些面部欺骗。”能力”。
此外,“欺诈者利用各种技术,例如演示攻击和– 针对身份验证系统部署基于人工智能的人脸欺骗。”
与此同时,人类在检测基于人工智能的超现实面部恶搞方面的效率越来越低。
欺诈策略需要能够适应不断变化的攻击
这意味着制定一种策略来整合不同类别的信号(包括视觉和非视觉以及更大的模式)并随着时间的推移进行调整非常重要。 Persona “观察到欺诈者在注入攻击中使用基于人工智能的面部欺骗和窃取的自拍照。”
“如果没有我们的非视觉信号,像这样的实例就有可能绕过基于视觉的检查。”
Gartner 预测,到 2026 年,使用人工智能生成的面部深度伪造的攻击可能会让多达 30% 的企业采用人工智能驱动的多渠道和身份验证解决方案作为必要的防御。确实如此:欺诈者不断完善和改进他们的技术。 Persona 指出,“仅仅因为你的方法今天有效,并不意味着明天它仍然有效。”
打击人工智能人脸恶搞需要宋所说的“积极主动、适应性强的方法”。
Persona 的整体策略保证了全面的信号库、灵活性和安全性。 “我们的数据分析、工程和威胁监控团队正在不断策划新的数据源,以及企业在主动攻击期间可以广泛或更战略性地应用的检测模型。”
文章主题
||||||||||