根据最新的在线展示,政策制定者可能仍在赶上深层。Pindrop。
研究副总裁Elie Khoury解释说,该公司正在寻找可感知和不可思议的。前者的一个例子是AI模型与语音的斗争擦音。构成语音模型文本的文本分析,声学模型和声码器也往往会留下详尽的标志,这些标志在人耳中没有听到,而是将其产品的来源作为生成AI赋予。 Khoury和Pindrop副总裁Amit Gupta的产品,研究与工程副总裁讨论了这种算法分析的优势,而不是依赖水印。
这一点尤其重要,因为欧盟的AI法案是世界上对算法及其产品的最全面的监管,并不能禁止深层捕获。相反,它只是要求它们包括一个水印,如sumsubAI政策和合规专家Natalia Fritzen公司博客文章。
弗里岑(Fritzen)指出,观察家对AI法案规定的透明度方法的有效性受到了质疑,并且欺诈者不太可能有意遵守。
随着时间的流逝,各种人工制品可能会发生变化,但是由于Pindrop的模型经过专门设计,以寻找表明所呈现的声音已被欺骗的迹象,而攻击模型则设计为愚弄人类,因此仍然可以检测到算法参与的证据。作为产品和工程总监Sarosh Shahbuddin所说,用于创建深层蛋糕的模型是针对人类如何听到语音的方式的优化的,而不是“人类如何在频谱图中观看语音”。
Khoury指出,将来,攻击者可能会转向对抗性攻击模型,以专门针对Pindrop's等检测模型,但该公司已经在研究攻击对抗性攻击的方法。
一项关于DeepFake检测优先事项的民意调查表明,绝大多数网络研讨会参与者主要关心对呼叫中心的DeepFake攻击,而不是对高管,帮助办公桌员工或高净值个人的假冒。
Shahbuddin说,Pindrop还与未命名的合作伙伴合作,以阻止政治虚假信息。
有些人使用文本到语音和类似的工具,尽管残疾,但仍在与呼叫中心进行通信。软件工程高级经理Aarti Dongargaonkar解释了Pindrop的颗粒功能,用于将呼叫者排除在语音身份验证和LIVISE检测之外,以避免错误地将其视为欺诈风险。
Khoury表示,Pindrop的模型已证明超过99%的精确度,可以在内部基准测试中检测已知的生成AI工具的深层。他说,对于看不见的系统,其准确性通常超过90%,指的是一对近期突出的第三方挑战。他说,对于误报,客户的看法仅为0.1%,即使到那时,也是由电视上的语音等现象触发的,该现象在后台的音量相对较高。