美国再次选择下一位政府领导人只有几个月的时间,但是准备工作开始了,Openai释放了其新的选举错误信息政策,以保护公众和投票的神圣性。该公司的首要任务是改善其AI工具和产品的保障措施,这些工具和产品可用于散布深层,模仿,假新闻等。
Kirill Kudryavtsev/AFP通过Getty Images

Openai选举错误信息政策现在是为了“保护”
最新Openai博客文章详细说明了它为“保护选举完整性”所采取的步骤,这始于它将对其产品和AI工具强加的巨大保障措施。
当我们在2024年在全球最大的民主国家中做准备选举时,我们的方法是通过提高准确的投票信息,执行测量的政策并提高透明度来继续我们的平台安全工作。
Openai
为了防止使用选举滥用AI的一部分,Openai声称其DALL-E将具有特定的“护栏”,这些“护栏”将“拒绝请求”,要求创建包括候选人在内的真实人物形象。此外,不允许用户构建用于政治竞选和游说的应用程序。
该公司补充说,它还对其AI工具的透明度非常重要,特别是对于Chatgpt提供的信息来源以及内容出处对于dall-e。
AI的工具来打击深击,虚假新闻等等
Openai仅在其AI工具上采取安全措施,以帮助对抗假新闻的传播,AI生成的深击和错误的信息,从而达到问题的根源。
该公司表示,借助其新的GPT,用户可以在创建可疑内容时直接,轻松地报告潜在的违规行为。
大量使用AI进行错误信息
自去年以来担心使用AI倡导者,政治家等提出了说服但捏造的内容,也就是错误的信息。
这是由于深层爆发的令人震惊的兴起,充满了互联网和社交媒体平台的误导性信息,旨在将公众转化为负面信念和旨在破坏社会的理想。
这样,联邦选举委员会(FEC)已经调查了政治广告的调节由生成的AI制成,尤其是用它嵌入公众的虚假陈述。
除了组织外,大型科技公司还已经加紧了在线战斗说错误的信息,Google确认它的立场是通过其搜索和YouTube平台带来合法的新闻和信息。
在即将举行的2024年选举中,大量关注的关注是真实的,这是因为使用生成的AI工具通过多媒体内容在线上存在误导性的大量传播。话虽这么说,Openai现在正在反对使用其AI工具来创建此类内容,促成这些误导性内容的生产并帮助保护所有人的选举权。
