最近,一个家庭使用AI语音克隆技术损失了数千美元的骗子的消息令人震惊。越来越清楚的是,那些有不良意愿的人可以利用人工智能的力量来利用毫无戒心的受害者。
语音克隆欺诈:AI模仿的风险越来越大
根据这个故事财富,随着人工智能的发展,越来越有可能创造令人信服的声音。 Ai-Ai-a-a-aged文本到语音工具允许人们创建只有几秒钟的初始音频的声音。
不幸的是,这项技术也可能出于恶意目的而被滥用,例如以欺诈性收益来克隆一个人的声音。加拿大公民本杰明·珀金(Benjamin Perkin)的案例就是语音克隆欺诈带来的危险的一个例子。
欺诈者现在使用人工智能创建现实的语音克隆
随着技术的进步,人工智能提供了各种新的可能性,其中一些包括语音合成领域的进步。这意味着,只需几秒钟的音频,就可以创建一个人的声音的完美克隆,并用它来欺骗他人。
最近在华盛顿邮报这是一个加拿大人本杰明·珀金(Benjamin Perkin)的故事,他的年长父母被欺骗派骗子数千美元。
基于订阅的身份验证以对抗恶意AI语音克隆
一位“律师”召集了他们,并告诉他们他们的儿子因在车祸中杀死一名美国外交官而入狱,他需要赚钱的律师费。年长的父母不知道的是,“律师”克隆了珀金斯自己的声音,并说服了他们是他们的儿子要这笔钱。
这些恶意AI语音克隆事件中的大多数与使用免费的匿名帐户有关。为了阻止这一点,一家公司,Elevenlabs,已决定发布一个新的基于订阅的计划,要求用户验证其身份以使用语音合成器。
验证可疑语音邮件,文本和电子邮件的发件人
这将有助于阻止骗子通过其合成器发送欺骗性消息,因为如果要求自己对自己进行身份验证,它们的可能性较小。
语音克隆是一项非常危险的技术,重要的是要记住在提供个人信息时要小心。在发送任何金钱或其他有价值的信息之前,最好始终验证发件人的任何可疑语音邮件,文本或电子邮件。
另请阅读:Chatgpt驱动的AI辅导员在阿联酋教孩子,但它不会取代教育工作者
AI滥用的后果:对本杰明·珀金案的检查
对新技术的认识可以帮助保护用户及其家人遭到骗局。随着技术正在迅速发展,需要牢记AI滥用的潜力。
本杰明·珀金(Benjamin Perkin)的案例证明了语音克隆欺诈可能带来的损失。必须采取步骤确保公司保护个人免受入侵技术造成的危险。
相关文章:Google前工程师对AI聊天机器人的风险表示担忧
