虽然2024年将在人工智能时代举行第一次大选,但Openai发表了一篇博客文章,解释了该公司打算如何确保其AI(CHATGPT,DALL-E)工具不用于选举过程。
创建旨在欺骗选民,在弥撒中开发群众以推出这样的候选人的视频或图像,使选民无力使真实和虚假的份额...人工智能时代的选举将是什么样的?如果我们已经制定了一些政策案件,试图多亏AI,则试图den毁对手,在法国作为在美国,这些工具的有问题用途应乘以。特别是因为今年将举行许多选举。除了美国总统大选和欧洲议会议会选举外,还计划在英国,印度,南非,印度尼西亚和墨西哥进行关键民意调查。
这些关键的民意调查也将是特别的,因为现在,诸如chatgpt,bard或dall-e之类的生成AI工具都在所有选民的范围内,以及所有愿意诉诸捍卫自己的因果关系并抹黑竞争对手的政客。什么成为生活大小实验的操场,可能会削弱民主。而且,如果这有些担心许多研究人员,Openai在1月15日星期一发表博客文章就此主题发表了一篇博客文章。
造成Chatgpt的公司说,它必须防止虐待,工作”AI产生的内容的透明度并改善对投票的特定信息的访问»。在虚假信息方面,开发AI工具的公司必须面对两个主要问题:如何使系统不会在其响应中产生错误信息?去年12月,美国媒体有线支持支持支持,表明Microsoft的IA聊天机器人Copilot,没有通过中继回答有关选举的问题阴谋论,虚假的丑闻和谎言»。因此,如何防止AI使用”以可能损害民主进程的方式»?
禁止生成候选人的图像
OpenAI首先指出它已阻止了某些用户请求。所以, ”我们不允许设计师创建自称是真实人(例如,候选人)或真实机构(例如,本地管理)的聊天机器人»。同样地, ”dall-e有保障措施拒绝要求生成真实人的图像的请求,包括候选人»。她也不允许互联网用户使用她的系统说服选民不参加民主进程。
该公司表现出特别谨慎,认识到它正在寻求”仍然了解我们工具在个性化的说服力方面的有效性。只要我们不了解,我们就不允许人们为政治运动和游说»。
Dall-E产生的视频和图像的Filigranes
Openai还解释了依靠的图像验证和真实性的信息计划的UR,以确保用户在整个选举中访问高质量信息»。为此,公司指出,对于图像和视频,它将尝试使用一种新工具,这将使您可以检测到与Dall-E一起拍摄的照片,这要归功于“出处分类器”。该工具已经在去年10月宣布。
山姆·奥特曼(Sam Altman)的公司还解释说,它还将实施由该行业联盟(该行业联盟)定义的系统,即“内容的出处和真实性联盟»。这将是一个问题,即在dall-e 3生成的图像中自动添加品牌或图标。使用这样的标记,可以更容易区分真实的AI生成的图像。在文本侧和信息内容上,OpenAI强调将实时将信息实时整合到Chatgpt中,”包括分配和链接“加上公司。
为了访问连续信息 - 生成最新的答案与选举的最新事件或结果 - OpenAI将基于与美国和德国媒体(例如Axel Springer Group)达成的协议。该公司在宣布《纽约时报》起诉后几天解释说,其他人正在谈判。美国人每日指责他掠夺您的文章以培训您的LLM,无授权。 OpenAI在其博客文章中指定的最后一个元素表示,它将将Chatgpt用户重定向到Canivote.org,该元素提供了有关美国投票和选举的参考信息。
出于什么效率?
所有这些要素都会有效吗?如果许多人怀疑,Openai并不是唯一采用这种策略的人。 Google于去年12月保证,它将限制对其IA聊天机器人Bard提出的选举请求。几个月前,Facebook的母公司Instagram和WhatsApp的Meta禁止使用其AI广告工具进行选举活动。
在Google和Meta的管道中,可以检测数字水印,从而可以检测是否由AI生成此类文本或图像。 DeepMind的一面已被突出显示Ynthid,这使得可以在AI产生的图像和声音上贴上数字水印Google上个月。 Meta还选择了其AI生成的任何图像的任何图像。这些元素可以根据用途和技术的发展而发展。
来源 : Openai博客文章