关于生成的警告人工智能仅在即将举行的选举中继续据说由国土安全部最近的联邦公告看到。
国土安全部开发的研究并分发给了全国执法伙伴,这表明当地和外国参与者可以使用技术在2024年选举周期之前构成重大障碍。
联邦公告是很少发生的通讯,使执法伙伴警告特定的威胁和关注点。
根据警告,AI能力可以帮助破坏2024年美国选举周期。预计在此选举周期中,一系列威胁行为者试图影响和播种动乱。

生成的AI技术可能会通过加剧新兴事件,干扰选举程序或针对选举基础设施来使外国和国内威胁行为者更多的机会在2024年选举周期中进行干预。
在上周的参议院情报委员会听证会上,国家情报局局长艾维利·海恩斯(Avril Haines)还警告国会有关生成性AI的危险,并指出该技术可以产生可隐藏的逼真的“深层”。
由于在线驳斥或反驳误导性信息可能需要一些时间,因此与公告中所述,与选举相关的AI生成的媒体的时机可能与内容本身一样重要。
该报告还提到了仍然存在于国外的威胁,并指出,在2023年11月,AI生成的视频敦促在南印度南部的选民在选举日支持某个候选人,这使官员们几乎没有时间驳斥该视频。
AI巨人反对AI虚假信息
微软和Openai有最近建立了200万美元的基金,以应对Genai构成的威胁,以应对深层和欺诈性的AI内容。
对AI产生的错误信息的担忧已经达到了临界群众,因为一个空前的20亿选民准备在本届选举这一年在50个不同国家进行投票。错误信息专门针对脆弱的社区。
随着Generative AI技术的出现,例如Chatgpt等聊天机器人,可用于创建深击的工具的数量大大增加了。这些开源资源可用于制作伪造的照片,音频剪辑和公职人员的电影。
已经提供了一种开源的深击检测工具,可以帮助学者斑点欺诈性欺诈性内容由DALL-E Image Generator生成。最近建立的“社会弹性基金”对于促进道德AI使用的原因至关重要。
微软技术和公司责任公司公司副总裁Teresa Hutson强调了社会韧性基金在与AI相关的社区计划中的价值。为了应对AI错误信息,她强调了Microsoft和Openai致力于与其他志趣相投的企业合作。
人工智能欺骗有效
尽管最新的AI技术的质量非常出色,但大多数Deepfakes很快就会失去信誉,尤其是来自中国和俄罗斯打算全球影响力运动的人。
消息人士称,专家们已经观察到,不可能改变大多数人的政治观点,而不管其图像,视频或音频样本的说服力如何。
在巴基斯坦和印度尼西亚的最近选举中,生成的AI已被广泛使用,但没有证据表明它不公平地赞成任何特定的候选人。社交媒体每天发布大量内容,使AI驱动的骗局(甚至是现实的骗局)很难获得牵引力。
