随着议员们继续试图并为威胁的威胁恢复法律辩护,使许多人在美国联邦大选之前关注的威胁。
Pindrop与语音克隆公司的呼吸器合作在道德上使用
通过确定用于创建Joe Biden DeepFake Audio的原始AI引擎的区别,Pindrop与之合作重工人,一家为创意内容行业提供服务的语音克隆公司,以促进生成AI的道德使用。
Pindrop首席产品官Rahul Sood的博客文章表示,该合作伙伴关系将使这些公司能够通过与语音克隆系统紧密合作,共享研究工具和数据,以优化DeepFake检测技术。
Sood写道:“从道德上使用的语音克隆可以创造更多的社交和消费者参与度,帮助言语障碍患者恢复他们的声音,用不同的语言配音或新角色配音。” “但是,在不良演员手中,同样的语音克隆技术可用于邪恶的目的,例如财务欺诈,模仿家庭成员或进行实时对话的音频劫持。
“随着人工智能的越来越复杂,更逼真的语音克隆和扩大有组织的攻击的风险构成了一个主要的挑战。必须将语音克隆的提供者设计其解决方案以避免造成伤害,以维持其高标准,以维持AI的道德使用,并避免了无允许的克隆声音。”
随着欺诈者的发展,技术只会继续改善实时语音转换策略Sood说,这减少了伪像和停顿以创造更具人为的流程 - 防御能力必须随之改进。 Pindrop的实时检测分析了每秒8000倍的声音,这些人工制品反映了人类和机器声音机制的独特语音质量。
Sood说:“ Pindrop对与Respeecher合作感到兴奋,因此DeepFake检测可以保持领先地位,以防止语音克隆。” “这种合作伙伴关系将帮助Pindrop促进对银行,保险公司或医疗保健提供者等企业的每一个呼吁的信任的使命。”
或 - 至少在一个案例中 - 政府。
Robocall Deepfakes的创造者认罪
CNN报告史蒂夫·克莱默(Steve Kramer)是民主党众议员迪恩·菲利普斯(Dean Phillips)的前政治顾问,他承认雇用新奥尔良街头魔术师创建乔·拜登(Joe Biden)的假音频内容,建议新罕布什尔州的人们不要在初选中投票。克莱默,他说声音深击由“易于使用的在线技术”创建,然后将其发送给数千名选民。
易于使用的技术是Elevenlabs,Pindrop的音频DeepFake检测软件被识别为用于生成Biden Robocall Audio的文本到语音(TTS)AI引擎。克莱默(Kramer)声称,使用Elevenlabs创建假语音内容不到半小时。魔术师的确切作用尚不清楚。
Pindrop随后解释了它的声音生物识别引擎识别假货像拜登欺骗一样。
对Pindrop在证实消费者新闻界的成功方面取得成功的认可代表了公司公共关系上限的羽毛。
俄勒冈州通过法案,要求披露AI活动材料
Biden Robocall被认为是AI试图抑制投票的第一个主要实例,它削减了立法的多米诺骨牌效应。
本周,俄勒冈州成为通过规范DeepFake AI技术并防止其滥用的法律的最新州。根据俄勒冈州资本纪事的报告,参议院第1571号法案将要求竞选活动披露其竞选材料是使用AI还是其他数字技术来操纵图像,音频或视频,以试图影响选民。如果通过,法案还将使国务卿或总检察长可以阻止使用AI生成的竞选材料的使用,这些竞选材料尚未披露,并处以每次违规最高10,000美元的罚款。
俄勒冈州参议员亚伦·伍兹(Aaron Woods)说:“这些综合媒体可用于创建虚假的叙事,模仿公众人物并以普通观众无法立即辨别的方式操纵公众舆论。”
虽然有些人同意森林的同意,但要谨慎赋予过多的权力以无法在一个权威中统治此事,但其他人则是倾向于焦虑:参议员丹尼斯·林西姆(Dennis Linthicum)以“执政精英”使用AI来控制世界各地的人们,对该法案投票反对该法案。 Linthicum说:“这可能会让每个人都认为我的头上有锡箔帽,但我没有。” “我有一个良好的逻辑论点。”
这款Tinfoil Hat Real还是Fake:参加Audio DeepFake测试
公众对深击的认识正在增长,每一次关键事件都在立法行动中推动媒体报道。为了评估DeepFake技术的有效性如何,Guardian将在线技术的过去趋势之一展开:在线测验。该论文的记者使用了鹦鹉AI,“用户可以将单词输入的公众人物音频演绎的应用程序”,以创建假和/或真正的王牌和bidens所说的许多短语;用户可以猜测哪些剪辑是真实的,哪些是生成的。 (根据记录,该记者以第二名失败。)