在一项由苏黎世大学研究人员发现,人脑自然可以检测到深泡声。
这学习发表在《通信生物学》上的文章中,阐明了人脑的自然声音与深击的方式不同,从而揭示了大脑识别这些人造声音的固有能力。
该研究涉及25名参与者,他们的任务是区分自然和深击声。研究人员使用先进的语音合成算法来从四个男性扬声器的录音中创造出高质量的深层声音。
参与者听了多种声音,并被要求确定两个声音的身份是否相同,要么匹配两个自然声音或一个自然声音和一个深击声。
法新社的一名记者在2019年1月25日观看了一段视频,该视频用人工智能操纵,以欺骗观众,或者在他位于华盛顿特区的Newsdesk上“ deepfake”。 - 由于人工智能的进步,操纵现实的“ Deepfake”视频变得越来越复杂和现实,从而产生了造成毁灭性后果的新型错误信息的潜力。 亚历山德拉·罗宾逊(Alexandra Robinson)/法新社通过盖蒂图片摄影

大脑如何检测到深泡声的声音
结果表明,深冰声声音在正确的三分之二的时间里被正确识别出来,这表明虽然深击具有欺骗的潜力,但它们并不是万无一失的。
计算语言学系的博士后研究员,研究的第一作者克劳迪娅·罗斯万多维茨(Claudia Roswandowitz)评论说:“这说明当前的深击声可能不会完全模仿身份,但确实有欺骗人们的潜力。”
研究人员使用成像技术来探索大脑对自然和深层声音的反应方式不同,从而确定了这一过程中涉及的两个关键区域。
伏隔核:当参与者比较深泡和自然声音时,伏隔核是大脑奖励系统的核心部分,这表明奖励系统可能对合成声音不太强烈。
但是,在比较两个自然声音时,它显示出了增强的活动,这可能表明偏爱真实的人声交流。
听觉皮层:负责处理听觉信息的负责人,在区分深击和自然声音时,听觉皮层更为活跃。
这种增强的活动可能反映了大脑为确定真实声音和人造声音之间微妙的声学差异的努力,以补偿深击中缺失或扭曲的声学信息。
这些发现表明,尽管人类可以被深冰声声音欺骗,但我们的大脑具有检测这些声音人为性质的特定机制。
Roswandowitz解释说:“因此,人类只能被深击欺骗。在深层处理过程中鉴定出的神经机制特别突出了我们对假信息的韧性,我们在日常生活中更频繁地遇到的神经机制。”
DeepFake音频的威胁日益增长
这项研究是在使用DeepFake技术正在上升的关键时刻。早在2024年1月,新罕布什尔州总检察长办公室报告了Robocall利用人工智能模仿总统乔·拜登(Joe Biden)的声音,以劝阻初选期间的选民。
此外,全球全周验证提供商Sumsub报告了同比增长245%在全球的Deepfakes中。最近和即将举行的选举的国家,例如印度,美国和南非,在深击事件中发生了巨大的竞争。
保持在Tech Times。