当Arup的香港办事处的视频电话中的一名员工根据要求Deepfake化身在他公司的高管中,他们可以说引发了金融业对生成AI的普遍意识的范式转变。该案一次又一次地被引用为证明Deepfake欺诈的新时代在我们身边,与金融部门作为其主要目标。越来越多的建议是投资基于AI的防御和训练,并随着AI威胁景观的不断发展而保持敏捷。
德勤说,公司需要AI工具,第三方合作伙伴和新员工来对抗欺诈
来自德勤的新预测探讨了生成性AI如何放大深层味和其他的风险银行业欺诈- 以及企业可以做出的回应。
德勤说,像Arup Hack这样的攻击可能会在未来的几年中扩散AI到欺诈银行和他们的客户。德勤金融服务中心预测,到2027年,AI可以使欺诈损失在美国达到400亿美元,这是2023年的123亿美元,即32%的复合年增长率。”
保守的预测损失接近220亿美元,这仍然引起了重大关注。
Deloitte的评估说:“ Dark Web上已经有一个整个家庭手工业,可以销售20美元至数千美元的骗子软件。” “这种民主化邪恶的软件正在使许多当前的反欺诈工具的效率降低。”商业电子邮件妥协仍然是一个主要问题,因为它们利用漏洞并可能造成巨大的损失。
风险管理框架需要更新,并提供生物识别和数字身份工具。 “虽然旧欺诈系统需要业务规则和决策树,但金融机构今天通常部署人工智能和机器学习工具来检测,警报和应对威胁。”德勤说,命名JP Morgan和万事达在大型金融公司中,已经开发并启动了基于AI的防御欺诈。
评估说,银行将需要强大的基于AI的防御保持竞争优势。他们还需要适应。 “不会有一个银色的解决方案,因此反欺诈团队应不断加速他们的自学,以保持欺诈者的步伐。对未来的欺诈银行抵抗欺诈也将要求银行重新设计其策略,治理和资源。”
德勤建议您在银行业外寻找“知识渊博和值得信赖的第三方技术提供商。”银行应“积极参与新的行业标准的制定”。他们应该在此过程的早期提出合规,以预期未来的监管查询。
还需要更敏捷的欺诈团队,这意味着招聘 - 可能需要带来成本。 Deloitte说:“对于许多银行来说,这些投资将是昂贵且困难的;在某些银行领导人优先考虑管理成本的时候。” “但是要保持领先地位,应优先考虑广泛的培训。”
DeepFake攻击击中了“ AI Gang”命中的加密交易所帐户
警告经常遇到怀疑主义的合唱,并且关于AI的警报受到挑战。但是,财务威胁的证明并不难。 Cointelegraph的杂志具有覆盖Deepfake AI“帮派”从OKX加密交易所帐户中,偷偷摸摸的是“无电子邮件或两因素身份验证警告,”在25分钟内。
OKX的创始人Xu Quar Quar Quar Qu Xu声称“偷币黑客帮派”正在使用Deepfake AI绕过交易所的面部识别软件。 Xu写道:“现在所有黑客帮派现在都如此自大吗?肇事者,受益人和人工智能面对面的罪行的受害者之间的沟通记录不断地误导受害者,因为受害者相信Okx偷了这笔钱。”调查正在进行中。
Duckduckgoose啄了多年后终于得到了种子
帮助正在路上:硅运河报告那Duckduckgoose,一家位于荷兰代尔夫特的AI DeepFake检测初创公司已在预先的一轮资金中获得了130万欧元(140万美元)。这家对禽类友好的公司成立于2020年,并以此为止。它的软件有望通过API集成单秒分析,精度为95%的结果可以理解100%。
DuckDuckgoose的首席执行官兼联合创始人Parya Lotfi说:“这项成就使Duckduckgoose AI更接近我们创建数字环境的使命,这要归功于我们的尖端深击和Genai检测技术,我们仍然可以相信自己的意识。”
大政府还在制定国防计划,或者至少知道应该这样做。华盛顿邮报报告(付费)美国网络安全和基础设施安全局认为让大型技术决定了深击是一个坏主意。詹·伊斯特利(Jen Easterly)认为,人工智能将“煽动”武器宣传的威胁,并且需要立法来避免被坏行为者用来造成伤害。