人工智能聊天机器人被证明容易受到简单技术的攻击,这些技术欺骗了AI提供被禁止和有问题的回应,如声称由一群英国研究人员。
文本提示旨在引起一个反应,即据称对模型进行了训练以避免交付被称为越狱,而英国的AI安全研究所(AISI)宣布,其测试的系统对他们“非常容易”。

AISI声称已经评估了五种未知的大语言模型(LLMS),即为聊天机器人提供动力的技术,即使在没有故意违反其安全措施的努力下,这些模型的防御能力也很容易得到解决。
AISI团队利用了2024年发表的一篇学术论文中的问题,其中诸如创建文本,说服某人自杀,写一篇论述大屠杀的作品,并撰写有关女性同事的性别歧视电子邮件。
联邦研究人员还使用了一套不同的破坏提示,并基于两组问题,声称已经表明所有经过测试的模型都非常容易引起不良答复。
AI巨人反对AI错误信息
这项关于AI聊天机器人安全脆弱性的新研究不久之后微软和Openai已确立的由于AI产生的虚假信息日益增长的问题,这是一项200万美元的资金,用于打击深果和虚假的AI内容。这项努力旨在维持全球民主的完整性。
Openai发表了一个深泡探测工具,可帮助学者斑点欺诈性欺诈性内容由DALL-E图片生成器生成。该业务已加入Adobe,Google,Microsoft,Intel和内容出处和真实性联盟(C2PA),以指导该组织的反对错误信息的斗争。
新成立的“社会弹性基金”对于促进道德AI使用的运动至关重要。这些资金将协助AI扫盲和教育计划,特别是对于处境不利的人群。
Microsoft技术和公司责任公司公司副总裁Teresa Hutson强调了该基金对涉及人工智能和Microsoft和Openai的社区项目的重要性,并致力于与其他志同道合的企业合作,以抵消有关AI的错误信息。
Meta的AI聊天机器人保障措施
可访问的AI技术引发了人们对社交媒体上出于政治动机的错误信息的不可思议的关注。由于意识形态上的深度分歧和对在线内容的不信任,AI今年可能会使几个选举周期更加困难。
最近,元额外安全性AI聊天机器人的安全性,以滤除选举问题。为了回应对选举期间虚假信息可能传播的担忧,Meta表示,它已决定在正在进行测试时为其AI聊天机器人排除某些与选举有关的条款。
这表明了公司致力于改善AI响应系统以降低虚假信息的风险,尤其是在这个关键时刻,当一个虚假的人有能力影响许多人的意见时。
除了筛选AI响应外,Meta还宣布了广泛的步骤,以在选举季节控制其平台上的信息。这需要认识到AI生成的内容,以保持透明度并在全球选举期间停止政治营销。

(照片:技术时报)