生成式人工智能的日益普及释放了一系列行业的积极潜力,但也加剧了挑战,特别是在身份欺诈和数字交易信任方面。在本周的网络研讨会上,Proof 和 Reality Defender 的行业领导者讨论了人工智能驱动的欺诈实施方式的转变以及应对新威胁所需的措施。
Kelly Pidhirsky,解决方案咨询副总裁,强调了该公司从最初的 Notarize 到成为一个以确保高价值数字交互为中心的平台的历程。
“我们最初是第一家在线提供法律公证的公司,从那时起,我们真正彻底改变了传统的纸质装订流程,这一切都是为了为数字交互设定新标准,”Pidhirsky 说。 “快进到今天,它不仅仅是在线公证,并不是说它不是非常重要,它仍然是基础,但我们现在正在成为一个全面的、以身份为中心的平台。”
Proof的身份授权网络以加密方式将经过验证的现实世界身份与数字文档绑定在一起,旨在减少欺诈并确保合规性。 Proof 的客户群涵盖 7,000 多个组织,包括金融机构、医疗保健提供商和房地产公司,重新定义了虚拟环境中的信任。
小组成员的普遍共识是,生成式人工智能已经取得了显着的发展,具有实时性正在成为下一个前沿。虽然之前的限制,例如极端面部角度的错误或触摸头发等动作的错误,在六个月前就已经很明显了,但最近的突破已经克服了这些障碍。这一进展使欺诈者能够令人信服地实时冒充个人,这一壮举需要复杂的培训和计算资源。
Pidhirsky 补充道:“生成式人工智能的兴起加剧了身份信任问题。”他指出,不良行为者可以轻松地利用先进工具来冒充个人并破坏 KYC(了解你的客户)协议。 “仅 KYC 是不够的,”她警告说,每年损失 810 亿美元归因于与身份相关的欺诈。
对抗深度造假威胁
梅森艾伦,销售主管解决了日益复杂的深度伪造技术,该技术已从原始的数字模仿发展到能够破坏企业和政府系统的超现实操纵。 Reality Defender 是一家总部位于纽约的网络安全公司,采用多模型方法实时检测合成媒体信号,从而防范欺诈活动。在上个月 A 轮融资的扩展中,该公司的人工智能检测模型经过大量数据集的训练,能够在用户验证的关键时刻实时识别 Deepfake 伪造品。
“Deepfakes 是类似于防病毒软件的猫捉老鼠游戏的下一代版本,”Allen 说道,并解释了 Reality Defender 如何不断适应新兴的 Deepfake 技术。他强调了问题的严重程度,并提到到 2027 年,生成式人工智能欺诈可能会成为每年价值 400 亿美元的挑战。
在金融环境中,实时视频通话通常用于 KYC 流程和高价值交易。然而,欺诈者已经开始利用这些机制。例如,今年早些时候的一次 Deepfake 诈骗涉及在 Zoom 实时通话中冒充一名首席财务官和两名副手,导致 2500 万美元被盗。此类事件凸显了现有身份验证系统的漏洞。
这些风险不仅限于金融犯罪。 Deepfake 技术已被用来利用高管公开的语音和图像数据,在诈骗和错误信息活动中冒充首席执行官。甚至是备受瞩目的人物,例如美国参议员本·卡丁 (Ben Cardin) 成为深度造假的受害者,最近发生的一起事件涉及与一名据称是乌克兰官员的捏造互动。
Runway 和 ChatGPT 等生成式人工智能平台发展迅速,使得区分真实媒体和合成媒体变得越来越困难。艾伦用视频生成技术进步的例子说明了这一点,并指出深度伪造品如何发展到与真实内容无法区分的地步。虽然这些工具提高了创造力和效率,但它们也使不良行为者能够以最少的技术专业知识来扩大社会工程攻击和金融欺诈。
号召性用语
演讲者呼吁采取行动:重新评估数字身份验证系统,以解决生成人工智能暴露的漏洞。 Pidhirsky 强调验证文件背后“活着的、在场的人”的重要性,而 Allen 则强调企业需要采取主动措施来识别和减轻深度造假风险。
“生成式人工智能不仅是未来的问题,也是当前的现实,”Pidhirsky 警告说。该网络研讨会倡导加强技术提供商和利益相关者之间的合作,以确保数字交互免受日益复杂的威胁。
还推出了解决欺诈风险的工具。例如,推出了基于云的身份验证服务,支持生物识别检查,同时专注于从行为分析中得出的欺诈见解。此外,Proof 的验证 Deepfake 防御旨在通过确保用户合法性来降低 Deepfake 等欺诈活动的风险。
Proof 的验证平台已为 7,000 多家组织提供服务,包括金融机构、医疗保健提供商、小型企业和政府机构。
专家们还主张将持续监测和动态风险评估作为关键策略。通过视频、语音和行为模式实时验证身份的技术可以帮助阻止攻击,同时保持真正用户的易用性。
随着深度造假技术变得越来越容易获得,滥用的可能性可能会增加。
文章主题
||||||||||