尽管“智能”的概念可能很人为,但它似乎与计算机生成的穿着制服的猫携带突击步枪的图像并不相符。
然而,这种视觉诽谤支持了一个关于俄亥俄州移民吃宠物的被揭穿的故事,已成为 2024 年美国的标志性形象。它是使用创建的(AI) 由共和党候选人唐纳德·特朗普的支持者创建,并由前总统本人在网上传播。
作为在广泛使用生成人工智能的时代进行的第一次选举?它可以创造看似?信誉不佳的网站和我们的具有大量捏造和误导性的文字和视觉效果。
为了更多地了解这项技术在比赛中的作用,《今日马里兰》采访了马里兰大学的三位教职专家:信息学院教授 Jennifer Golbeck,他研究社交媒体算法和极端主义内容的传播;语言学教授 Philip Resnik,他在高级计算机研究所联合任命,致力于语言和心理学的计算方法;和新闻学助理教授 Daniel Trielli M.Jour。 '16,他研究了搜索引擎如何放大错误信息和故意虚假信息等主题。
他们表示,随着人工智能技术的迅速发展,对其使用方式几乎没有控制,选民有责任区分好信息和坏信息。
您认为 2024 年选举中人工智能使用存在问题的典型例子是什么?
戈尔贝克:泰勒·斯威夫特,当然。令我惊讶的是,唐纳德·特朗普认为他可以通过为特朗普发布那些 Swifties 图像而逃脱惩罚。我认为没有人认为它们是泰勒·斯威夫特的真实照片,但这不是重点。无论这是否是她站出来支持卡玛拉·哈里斯的原因,这都让她有机会说:“我的图像被用于人工智能,我对此感到担忧,现在我需要告诉你我真正要去的是谁来投票。’”
雷斯尼克:新罕布什尔州的拜登机器人电话(由一位与一位默默无闻的初选对手竞选活动有关的政治顾问创建)旨在抑制拜登支持者在民主党初选中的投票率,这是未来可能发生的事情的一个指标。
特里埃利:最大的指控之一是公然错误的指控,称俄亥俄州的海地移民吃掉人们的宠物,违反了社会规范。这样做的目的不是为了产生局部影响并颠覆俄亥俄州,而是为了创造一种普遍的、全国性的反移民情绪以获取政治利益。由此产生的人工智能生成的图像并没有被描绘成真实的,但它们显示了虚假信息活动通常如何运作,通过制造针对某人或某物的负面情绪氛围。
我们大多数人如何遇到人工智能生成的有关选举的错误或虚假信息?
Trielli:遇到它的可能性,特别是在社交媒体上,接近 100%。人工智能可以极快地生成具有情感吸引力的内容,因此内容很多,无论我们是谁,我们关注的人都会分享其中的一些内容。然而,除了错误信息和虚假信息之外,我们还看到许多生成式人工智能内容,它们的目的可能不是让你相信发生了不真实的事情,而是让你在人和想法(无论是积极的还是消极的)之间建立联系。
雷斯尼克:人工智能有能力不知疲倦地放大社交媒体上的虚假信息,并且在这方面有工作心理学更普遍地表明,即使是虚假信息,如果重复得足够多并充分反映人们的偏见,也会突破并获得接受。
然而,我们并不总是将其视为公然的、全凭捏造的。我以前的学生 Pranav Goel 博士。 '23 在他的论文中展示了如何获取一个合法的新闻报道并在其中找到一些内容(也许是一个过于简单化的标题),以支持可能不会出现在整篇文章中但可能被放大为错误信息的叙述。他以非常系统的方式展示了与右翼和进步派相关的新闻来源是如何发生这种情况的。
戈尔贝克:人工智能在这次选举中的作用在某些方面超出了预测。几年前,人们期望大量的深度赝品非常令人信服,并且会让人们混淆什么是真实的、什么是假的。至少在图像和视频方面,有大量人工智能生成的内容,但流行的内容很少与现实相混淆。这几乎就像一种创建模因的新方法。
文字方面有所不同。社交媒体上的错误信息放大机器人可以使用 ChatGPT 等生成人工智能工具,使它们听起来更加人性化,并且能够进行真实的对话。它们比上次选举更有说服力?我们这些与机器人互动的人都知道,它们现在可以令人信服地对你大喊大叫。
谁在做这件事,他们的目标是谁?
戈尔贝克:当然,俄罗斯今年也参与其中?尽管他们现在不是、也从来不是唯一参与其中的国家行为者。当然,他们的机器人正在推送支持 MAGA 和支持特朗普的内容,但他们也在推送极左内容以压制选票。对于一些选民来说,这意味着推动加沙战争内容,不是为了为特朗普赢得选票,而是为了失去民主党的选票。这是俄罗斯以及在此之前的苏联在美国制造社会分裂的专长。
特里埃利:策略和目标各不相同,但重要的是要理解,这些策略之所以有效,是因为美国的选举制度因选举团制度而非常脆弱。有时一个州可以决定谁是美国下一任总统,而且可能只有该州某个地区的几万人决定。生成式人工智能允许产生大量和多种多样的内容,并且希望这些消息之一能够在正确的时间传达给少数人。
对于人工智能推动的政治欺骗,您最担心的是什么?
戈尔贝克:有一种经典的法西斯政治策略,其目标不一定是让人们相信谎言,而是让他们不确定如何辨别真假。我最担心的是人们会说:“我不知道什么是真实的,所以我不会相信任何东西。”当你这样做时,它就为法西斯和独裁政治的繁荣奠定了基础。
我们怎样才能保护自己不被上当呢?
Trielli:重要的是要理解,当我们看到我们普遍同意的东西时,即使事实并非如此,我们也更有可能接受它。作为记者,我们被教导要面对自己的偏见,以防范它们。但随着每个人都使用社交媒体,我们现在都是信息的发布者。在分享某些内容之前,您可以使用一种称为“横向阅读”的技术,即从一条信息开始,然后四处寻找其他信息和上下文,看看您想要分享的内容是否确实可信。
戈尔贝克:当你看到让你生气的东西时,你应该保持怀疑?很多错误信息都是为了制造这种强烈的情绪反应,而我们发现人工智能非常擅长这一点。这可能只是您觉得有趣或有趣的事情。我见过来自强大信息背景的人转发他们认为有趣的东西,因为他们忘记了交叉引用。
雷斯尼克:几年前,我在阅读《大学轰炸机宣言》时就有过这样的经历,其中涉及环境和技术,我发现自己在想,“是啊,是啊,这是一个很好的观点,非常合乎逻辑?等等,什么!?”有人对你来说听起来很合理,但却提出了非常不合理的观点,你必须努力将“这让我感觉如何”与“这真正意味着什么”分开。对于没有接受过这方面培训的人来说,我认为这可能非常困难,但要克服针对我们情绪的错误信息和虚假信息,这正是我们必须要做的。
引文:问答:人工智能生成的错误信息无处不在?识别它可能比你想象的更难(2024 年 10 月 9 日),2024 年 10 月 9 日检索自 https://webbedxp.com/zh-CN/science/jamaal/news/2024-10-qa-ai -生成的错误信息-harder.html
本文档受版权保护。除出于私人学习或研究目的的公平交易外,未经书面许可不得复制任何部分。所提供的内容仅供参考。