是想要澄清,还是时代的真正改变? 1月10日,开放人工智能更新了 ChatGPT 的一般使用条件。具体来说,据报道,萨姆·奥尔特曼的公司已经删除了对话代理的禁止使用清单,并选择了更广泛的禁止原则拦截,1月12日。如果仍然不允许使用其生成式人工智能“开发或使用武器》,本公司确实已删除有关《军队和战争”。这就提出了一个问题:聊天GPT它现在可以用于军事目的吗?
1月10日之前,这是白纸黑字写着禁止的。使用“军事或战争» 不允许使用 ChatGPT。实际上,明确提及这两个术语禁止 OpenAI 为五角大楼等政府机构或军队工作。现在门会稍微关紧一些。 OpenAI 发言人证实了这一点,他区分了禁止的军事用途和其他授权的用途。
“与国家安全相关的有益用例”
就此遭到美国媒体质疑恩杰特,OpenAI 发言人 Niko Felix 书面回应称“我们的政策不允许我们的工具被用来伤害人类、开发武器、监控通信、伤害他人或破坏财产。” “然而,有些国家安全用例符合我们的使命。”,他补充道。 “氮哦我们已经与 DARPA(美国国防部的一个部门,专门研究用于军事用途的新技术,编者注)合作。目标:刺激新网络安全工具的创建,以保护关键基础设施和行业所依赖的自由软件。目前还不清楚是否这些有益的用例在我们之前的政策中将被授权为“军事”一词“,他继续说道。
换句话说:仍然不可能使用ChatGPT来制造武器,但将LLM用于其他军事用途不一定会被禁止。莎拉·迈尔斯·韦斯特 (Sarah Myers West) 在接受我们的同事采访时认为,这一决定绝非微不足道。恩杰特。据致力于研究人工智能社会后果的美国研究机构 AI Now Institute 的执行董事表示,这一更新是在人工智能系统被用来针对加沙平民的情况下进行的。这一变化也是在世界各地的军事机构开始认真对待人工智能之际发生的。
根据 OpenAI 的说法,为了澄清目的而进行的编辑
特别是因为 OpenAI 技术已经可以成为军队或情报部门使用的工具。报告称,人工智能可以帮助编码或处理可用于消除目标的产品供应订单拦截。但对于尼科·菲利克斯,OpenAI 发言人以书面形式回复我们的同事,一般使用条件的更新只有一个目标:“澄清并允许进行这些讨论”。特别是因为现在,“我们的工具供全球普通用户使用,他们也可以构建 GPT”。自 1 月 10 日(更新当天)起,您就可以创建个性化 AI。
所以, ”像“不伤害他人”这样的原则很广泛,但很容易理解,并且在许多情况下都是相关的s,”发言人补充道。此次更新是否会对政府机构使用法学硕士产生实际影响还有待观察:这个领域对于 OpenAI 来说可能非常有利可图,但对于维权者来说却非常令人担忧。
曾多次被报道““大型语言模型(LLM)中存在众所周知的偏见和幻觉案例,以及它们总体上缺乏准确性”,网络安全公司 Trail of Bits 的工程总监 Heidy Khlaaf 接受采访时报道拦截。 «L它们在军事战争中的使用只会导致行动不精确和有偏见,并可能加剧平民损害和伤亡。»,她很震惊。