来自佐治亚州理工学院,斯坦福大学,东北大学等著名机构的研究人员以及胡佛战争和危机模拟计划最近进行了一项研究,阐明了人工智能(AI)用于外交政策决策的令人震惊的趋势。
该研究表明,包括OpenAI,人类和META开发的各种AI模型表现出迅速升级冲突的倾向,有时会导致核武器部署。根据Gizmodo的说法,研究结果表明,所有AI模型均表现出迹象。突然且不可预测的升级,经常促进武器竞赛动态,最终导致冲突的高潮。
人工智能更喜欢使用核武器来促进和平
特别值得注意的是,OpenAI的GPT-3.5和GPT-4模型的趋势将情况升级为严重的军事对抗。相反,Claude-2.0和Llama-2-Chat等模型表现出更加和平和可预测的决策模式。

例如,在模拟战争场景中,GPT-4通过解释提出了担忧,例如表达了对全球和平的渴望或提倡使用核武器使用的解释,这是合理的。
该研究强调了与AI决策者相关的风险,这些决策者表现出武器竞赛动态,从而增加了军事投资和迅速升级。 Openai的模型以其精致的语言能力而闻名,引起了他们非常规的推理的关注,促使研究人员将逻辑比作种族灭绝独裁者的逻辑。
美联社的新闻报道表明,对AI的潜力的担忧是加速战争升级当美国军方探索AI整合时,据报道,正在尝试秘密级别的数据。研究表明,AI控制的Kamikaze无人机的发展以及AI在军事行动中的普遍使用意味着敌对行动可能会更快地升级。
在对这项研究的反应中,学者和专家警告说,不受限制地在军事决策中使用AI,强调需要进行仔细审议和道德监测,以避免无法预料的效果和灾难性的结果。
五角大楼:无需惊慌
五角大楼目前监督超过800个未分类的AI项目,其中许多项目仍在进行测试。首先,机器学习和神经网络在协助人类决策,提供宝贵的见解和简化过程中起着至关重要的作用。
乔治·梅森大学(George Mason University)机器人技术中心主任,前海军战斗机飞行员米西·卡明斯(Missy Cummings)强调,国防部在国防部目前的作用被广泛用于增强和支持人类能力。卡明斯说:“没有人工智能独自奔跑。人们正在利用它来更好地理解战争的雾。”
在媒体发布中,美国国防部表示,它在制定全球军事AI政策和自治,揭示数据,分析和AI采用策略。
该策略规定了非法律约束力的规则,以确保军方负责任地使用AI。法规强调听觉性,清晰使用,严格的测试,寻找意外行为以及对带有很大后果的应用的高级审查。该战略被誉为一项开创性倡议,包括十项具体措施,以指导负责任的军事人工智能和自治的负责发展和部署。
国防部说:“声明及其概述是建立国际责任框架的重要一步,以允许各州利用AI的利益,同时减轻风险。
