最近的一项研究表明,在AI生成人类创建的媒体对个人的挑战变得越来越具有挑战性,对媒体素养和网络安全产生了重大影响。

人类可以识别AI生成的媒体吗?
该研究由CISPA Helmholtz信息安全中心的研究人员与几所大学合作进行了调查,对来自德国,中国和美国的大约3,000名参与者进行了调查,标志着该问题的首次广泛跨国检查。
该研究强调了AI在生成令人信服的图像,文本和音频文件方面令人震惊的熟练程度。 LeaSchönherr博士,Thorsten Holz教授及其团队阐明了与AI生成的内容相关的风险,尤其是其潜在的滥用来影响政治观点和操纵公众话语。
人工智能的快速发展使得毫不费力地创建了大量媒体内容,从而引起了人们对其潜在滥用的担忧,尤其是在选举等关键事件中。
今年的广泛选举,尤其是在即将举行的美国总统大选中,这种关注变得更加明显。
Thorsten Holz博士强调了对AI生成的媒体自动认可以减轻对民主构成的风险的迫切需求。但是,Schönherr博士强调了不断发展的AI生成方法所带来的挑战,这使得越来越难以自动检测该内容。
区分AI生成的和真实的媒体
该研究调查了人类是否可以区分AI生成的和真实的媒体。令人惊讶的是,结果表明,个人难以区分各种媒体类型和人口因素。
尽管年龄,教育,政治信念和媒体素养的变化差异,但参与者在识别AI生成的内容方面表现出有限的水平。
该研究在2022年6月至2022年9月之间进行了在三个国家的在线调查格式,使受访者接触了真实和AI生成的媒体样本。
尽管努力收集各种社会生物学数据并评估诸如媒体素养和政治取向等因素,但大多数参与者始终将AI生成的媒体分类为人类创造。
这些发现的含义超出了媒体素养对网络安全问题的关注,尤其是在社会工程攻击领域。 Schönherr博士强调了在个性化的网络钓鱼尝试中的潜在使用AI生成的文本和音频文件,这强调了对这种威胁的强大防御机制的需求。
尽管该研究提供了宝贵的见解,但它还确定了进一步研究的领域。 Schönherr博士强调了了解个人如何认识AI生成的媒体的重要性,并建议未来的实验室研究以探索这一方面。
“我们已经处于困难(尽管还不是不可能)的地步在新闻稿中说。
“我们感到惊讶的是,很少有因素可以用来解释人类是否更好地识别AI生成的媒体。即使在不同的年龄段和诸如教育背景,政治态度或媒体素养之类的因素中,差异也不是很大。”
该研究的结果是出版在《杂志》中。
