虽然人工智能时代的第一次重大选举将于 2024 年举行,但 OpenAI 发表了一篇博客文章,解释了该公司打算如何确保其人工智能工具(ChatGPT、Dall-E)在选举过程中不被滥用。
制作旨在欺骗选民的视频或图像、开发大规模深度造假以淘汰特定候选人、让选民无法辨别真假……人工智能时代的选举会是什么样子?如果我们已经有一些政客试图利用人工智能来诽谤对手的案例,在法国作为在美国,这些工具的有问题的使用预计会成倍增加。特别是因为今年将举行许多选举。除了美国总统和欧洲议会议员选举外,英国、印度、南非、印度尼西亚和墨西哥也计划举行重要民意调查。
这些关键的选举也将很特别,因为从现在开始,所有选民以及所有想用它们来捍卫自己的事业并抹黑自己的事业的政客都可以使用 ChatGPT、Bard 或 Dall-E 等生成式人工智能工具。竞争对手。足以成为可能削弱民主的全面实验的游乐场。如果这让许多研究人员担心的话,OpenAI 在 1 月 15 日星期一率先发布了一篇关于这个主题的博客文章。
ChatGPT 背后的公司表示,计划防止滥用、工作人工智能生成内容的透明度和改善对准确投票信息的访问”。当谈到虚假信息时,开发人工智能工具的公司必须面临两个主要问题:如何确保系统在响应中不会产生虚假信息?去年12月,美国媒体有线研究表明,Copilot,微软的人工智能聊天机器人,仅通过转发“来回答有关选举的问题”阴谋论、假丑闻和谎言”。因此,我们如何才能防止人工智能被使用“以可能损害民主进程的方式»?
禁止生成候选图像
OpenAI 首先指出它已经阻止了某些用户请求。所以, ”我们不允许设计师创建冒充真人(例如候选人)或真实机构(例如地方政府)的聊天机器人”。同样地, ”Dall-E 有保障措施来拒绝生成真人图像(包括候选人)的请求”。它还不允许互联网用户使用其系统来说服选民不参与民主进程。
该公司表现得特别谨慎,承认它正在寻求“尚未了解我们的工具在个性化说服方面的有效性。在我们了解更多信息之前,我们不允许人们创建用于政治竞选和游说的应用程序»。
Dall-E 生成的视频和图像的水印
OpenAI 还解释说,它依赖于我们经过验证的信息和图像真实性计划,以确保用户在整个选举过程中获得高质量的信息”。为此,该公司表示,对于图像和视频,它将尝试一种新工具,该工具可以检测哪些照片是用 Dall-E 拍摄的,这要归功于“出处分类器”。该工具已于去年 10 月发布。
Sam Altman 的公司还解释说,它还将实施由该行业公司联盟定义的系统,“内容来源和真实性联盟”。这将涉及自动向 Dall-E 3 生成的图像添加标记或图标。通过这种标记,可以更轻松地区分 AI 生成的图像和真实图像。在文本和信息内容方面,OpenAI强调将把来自世界各地的实时信息整合到ChatGPT中,“包括归属和链接»,该公司补充道。
为了获得连续的信息——这使得能够生成与最新事件或选举结果同步的响应——OpenAI 将依赖于与美国和德国媒体(例如 Axel Springer 集团)签订协议。在《纽约时报》宣布诉讼几天后,该公司解释说,其他事宜将进行谈判。 《美国日报》指责他未经授权掠夺他的文章来培训他的法学硕士。 OpenAI 在其博文中指出的最后一项表示,它将把 ChatGPT 用户重定向到 CanIVote.org,该网站提供有关美国投票和选举的参考信息。
为了什么效果?
所有这些元素都会有效吗?如果很多人对此表示怀疑,OpenAI 并不是唯一一家采用这种策略的公司。谷歌去年 12 月保证,将限制对其人工智能聊天机器人 Bard 提出的选举请求。 Facebook、Instagram 和 WhatsApp 的母公司 Meta 几个月前就禁止使用其人工智能广告工具进行竞选活动。
谷歌和 Meta 也在研究数字水印,以检测特定文本或图像是否由人工智能生成。 DeepMind 方面被突出显示为 S据报道,ynthID 可以为人工智能生成的图像和声音添加数字水印谷歌上个月。 Meta 还为其人工智能生成的任何图像选择了这种隐形标记。这些元素可能会随着用途和技术的演变而演变。
来源 : OpenAI 博客文章