Deepfake骗局越来越多地针对企业,在全球范围内造成了巨大的财务损失。
网络安全专家警告说,这些骗局使用先进的人工智能创建令人信服的虚假视频,音频和图像,变得越来越普遍,复杂,根据CNBC的报告。

深击骗局的兴起
CNBC引用的一项令人震惊的事件涉及在香港的一名金融工人,他被欺骗将超过2500万美元转移给欺诈者。犯罪分子使用Deepfake技术在视频通话中模仿同事,说服工人进行转移。
参与香港案的英国工程公司Arup确认了这一事件,但由于正在进行的调查而拒绝了细节。 NetSkope首席信息和安全官David Fairman表示,AI工具的公共可及性使得网络犯罪分子无需先进的技术技能就更容易进行复杂的骗局。
生成的AI可以生成逼真的文本,图像和视频,使其成为操纵数字内容的强大工具。 ARUP发言人告诉CNBC,他们的业务面临定期攻击,包括发票欺诈,网络钓鱼骗局,欺骗WhatsApp的声音和Deepfakes。
在香港事件中,财务工作者与他认为是公司的首席财务官和员工的个人一起参加了视频通话。
这些参与者是为了欺骗他转移大量资金而创造的深击。阿鲁普(Arup)在此骗局中证实了假声和图像的使用,并报告了最近这种攻击的急剧增加。
在中国山西省发生了类似的事件,一名女性金融雇员在与老板的深层访问中进行了视频通话后,被欺骗了186万元人民币(262,000美元)。
2023年8月,Google拥有的网络安全公司Mandiant的研究人员使用AI和DeepFake技术记录了网络犯罪分子的病例,用于网络钓鱼骗局和错误信息。预计将这种技术用于这些目的的方法将使用新的生成AI工具加速。
深击可能会恶化和加速一段时间
大山合作伙伴的网络安全专家杰森·霍格(Jason Hogg)指出,高级公司成员的深击可以传播虚假信息,操纵股票价格,损失声誉并传播有害内容。
前联邦调查局(FBI)特工霍格(Hogg)解释说,生成的AI可以使用社交媒体和其他平台的数字信息来创建深层效果。
霍格(Hogg)预测,更广泛的问题将会恶化和加速一段时间,因为有效的网络犯罪需要仔细的分析来创建系统,实践和控制措施,以打击新技术。
为了应对AI驱动的威胁,网络安全专家建议通过增强员工教育,定期进行网络安全测试并实施多层交易批准流程来增强防御能力。
