英国政府发表的一项新的案例研究并未削弱单词或数字:“人工智能(AI)产生的深击的兴起很快 - 预计将在2025年共享八百万,而2023年的500,000次。透明
然而,欺诈是一种可能爆炸的犯罪,同时仍然相对没有引起注意。借助Deepfake欺诈和其他偷偷摸摸的方式来颠覆现实,这就是重点。生成的AI迅速而悄悄地访问了精致的工具比以往任何时候都便宜,更容易。
因此,AI变得越来越必要。从那些在昂贵的深层视频注射欺诈范围内走错的人,到那些旨在防止它的使命的人,技术启用欺诈者与预防欺诈防御的对抗已经得到加热,并且一天变得更加复杂。
DeepFake欺诈对英国的“紧急国家优先事项”
根据英国案例研究,“寻找快速检测和减轻这种不断增长的威胁的方法是越来越紧迫的优先事项。”政府的加速能力环境(ACE)将一线政府和执法与创新技术联系起来,是“这项旨在找到实用解决方案的核心核心,可以说是在线时代最大的挑战。”
王牌参与了DeepFake检测挑战,与内政部,科学,创新技术部以及艾伦·图灵研究所合作。设计为用于尖端实用解决方案的研讨会,挑战邀请了学术界,工业和政府的代表合作,对五个挑战声明的回应,推动了当前的深层检测能力的界限。
在八周的过程中,参与者使用了一个自定义平台,该平台拥有约200万资产的真实资产和进行培训。在17个结果中,其中一些被强调为具有强大的概念证明和潜在的操作价值,现在正在基准测试和用户试验中;其中包括来自弗雷泽 - 纳什(Frazer-Nash),牛津波(Oxford Wave),南安普敦大学(University of Southampton)和纳姆(Naimuri)的提交。
挑战产生了几个关键的收获。首先,对于最有效,最有效的深层检测,使用精选至关重要这反映了现实世界的用例。其次,协作和共享数据对于更大的努力至关重要。
ACE与CSAM委员会的Evita合作
遵循DeepFake检测挑战,ACE已为国防科学和技术实验室进行了一个项目(DSTL)和首席科学顾问办公室(氧)。
ACE的作用是就如何“成熟”一种称为Evita的工具提出建议 - 视频,文本和。根据案例研究,“ ACE利用DeepFake检测挑战中利用其专业知识来创建可重复使用的“黄金标准”数据集。该数据集旨在有效测试检测模型,包括针对儿童性虐待材料(CSAM)的检测模型。”
最终结果是用于深泡检测的可重复测试和评估方法。
ACE还与公司蓝图,摄像头取证和TRMG合作,涉及深层检测策略。
“该组织说:“既是日益严重的威胁,又是不断发展的威胁,但是弥合模型和现实之间的差距对于以大规模和速度来应对它们至关重要。 ACE,其客户和供应商仍在激光侧重于从理论到实践的这种演变。”
iproov:为防止对自拍生物识别技术的攻击,请使用LIVISE检测
在接受自己的Deepfake挑战版本的公司中,Iproov和Paravision最近发布了研究特定挑战和用例的内容。
最近的网络研讨会旨在“超越自拍照”的目标 - 根据英国公司的说法,该公司虽然作为生物特征验证的工具流行,但容易受到复杂的生成AI驱动威胁的影响。面部掉期,,注射攻击和其他技术使劫持依赖静态面部图像的身份交易变得更加容易。
在iproov的网络研讨会,首席产品官彼得·詹姆斯(Peter James)讨论了组织如何防止使用Livices检测到AI DeepFake威胁的技术。
网络研讨会分解有效的需要在不断发展的AI威胁的背景下进行系统。詹姆斯说,高质量的捕获,多层分析和有效威胁监控的快速更新是关键要素。系统必须可以访问,没有偏见和准确。通过全球标准机构的认证可以帮助确保合规,包容性和安全性。
Paravision:LIVISE检测,深泡检测单独的工具
对Deepfake话语的最新贡献是白皮书概述了其深层检测方法。这是在深泡检测和LIVISETICT之间描述的重要一点。
它说,Paravisions Livisions产品“检查是否存在诸如面具或高分辨率显示器的物理表现攻击”,而其DeepFake检测产品”通过帮助识别和减轻合成图像或日益增长的合成图像威胁,从而增加了必不可少的保护层。”
因此,应将其检测和深层检测视为互补技术。 “这些技术共同实现了一项全面的防御策略,确保了每个经过验证的身份既是现场又真实的。这种双层方法不仅是预防欺诈方面的重大飞跃,而且是建立信任的关键一步。”
白皮书还贯穿了深层类型和检测用例的类型,以及Paravision的技术过程,系统体系结构,准确性基准测试和使用道德的数据集。
从2500万美元的香港Deepfake CEO案中学习
迄今为止最臭名昭著的深层案例也许是香港,其中一名Arup员工被公司高管的Deepfake Video Avatars欺骗,将2500万美元转移到外国银行帐户中。
在面试在世界经济论坛上,阿鲁普的首席信息官罗布·格雷格(Rob Greig)说,香港袭击“甚至不是最纯粹的网络攻击。我们的系统都没有受到妥协,也没有影响数据。”格里格将其归类为“技术增强的社会工程”。
他说:“人们被欺骗,认为他们正在进行真正的交易,从而导致金钱离开组织。”他指出,“这种情况的发生频率比很多人意识到。”
具体而言,它不是冰山一角,而是刺刀的尖端安装在冲锋枪上。 “如果格里格说,是子弹,我们所有人都会在地板上爬行,因为它们会从窗户驶过,每秒钟数千发。”
更令人担忧的是它们可以产生的便利性;在香港袭击之后,格里格发现他能够创建一个免费可用的技术在大约45分钟内)。
格里格(Grieg)说,防御深层攻击的有效策略必须基于对技术能力的认识和地位:“谁可以访问什么何时以及何时?您的组织周围有哪些数据?谁值得信赖,什么是不信任的?组织内部正在发生什么样的错误活动?”
Deepfake欺诈促使国际威胁促使全球反应
深蛋,las,无处不在:新研究从欺诈预防公司信托赛中表明,在2024年,使用基于AI的Deepfakes和Deepaudio的使用增加了118%,而美国90%的公司经历了网络欺诈。
Baptiste Collot,首席执行官Trustpair该研究说:“该研究表明,网络欺诈是不可避免的现实。尽管许多高管对组织识别复杂欺诈者的能力表达了信心,但几乎相同的百分比表示,他们的组织经历了成功的攻击,这表明信心放错了位置。这不断变化。公司需要保持警惕,不能负担自己的防御能力。
执法机构也是如此。韩国的警方正在对Deepfake检测系统投资91亿韩元(620万美元),以回应AI辅助Deepfake欺诈的激增。 yonhap报告该项目使用多模式算法并分析噪声和声音频率来检测DeepFake视频和AI生成的声音,该项目计划在2027年12月之前完成。
根据报告,在2024年的前10个月中,警方逮捕了573名嫌疑人,涉及1,094次深层性犯罪,这也涉及青少年和未成年人。
文章主题
|||||||