根据语音录制,一种新型的深击类型正在扩散。语音生物识别算法继续改善,威胁行为者正在将其用于欺诈,身份盗用和其他非法活动。
最近的恶习文章已经表明,4chan社交媒体平台上的几个成员使用Elevenlabs的Beta软件来产生声音,听起来像Joe Rogan,Ben Shapiro和Emma Watson Huts Racist或Abusive Eversive等著名人物。
Elevenlabs提供“语音综合”和“语音克隆”服务,据称是为了探索语音AI的新边界,并帮助“创造者和出版商寻求最终的讲故事工具”。
在翅膀中是Openai的Vall-e。根据TechCrunch在过去的几个月中,该模型取得了重大进步,现在有能力产生令人信服的深击。
需要更多吗?进入我自己的声音,法国初创公司Acapela Group由AI驱动的“语音银行”软件。在CES 2023提出,发现数字化,我自己的声音旨在帮助那些失去讲话能力来重现声音的人们。
据报道,该软件只能使用记录的音频创建令人信服的语音。
如何用生物识别技术解决语音深击
但是,也正在制定反欺骗措施。
根据语音识别工程师的说法Pindrop,呼叫中心可以采取措施减轻声音深击的危害。
公司可以教育工人面临危险。
回调功能可以结束可疑呼叫,并向帐户所有者索取直接确认的出站电话。
最后,多因素身份验证(MFA)和抗欺诈解决方案可以降低深层风险。 Pindrop提及为行为生物识别技术设计呼叫元数据,数字音调分析和键盘分析等因素。
甚至中国也在努力进行深层调节。如纽约时报,该国揭示了需要操纵材料的严格规则,才能获得对象的同意并带有数字签名或水印。
法规是否在深击中起作用。但是,权利倡导者警告他们可以进一步削减演讲在中国。