数百个世界领先的机器人技术和专家们发表了一封公开信,敦促联合国支持禁止致命自主武器系统。
这封信由 700 名研究人员和 600 多名其他专家签署,其中包括, 著名物理学家、苹果联合创始人史蒂夫·沃兹尼亚克、Skype联合创始人贾恩·塔林和激进哲学家诺姆·乔姆斯基。
它的发布恰逢世界上最负盛名的人工智能会议 2015 年的第一天人工智能国际联合会议。
这封信认为,自主武器的部署在几年内是可行的,并将在推动火药和核武器之后的第三次战争革命中发挥危险的作用。
人工智能教授托比·沃尔什(Toby Walsh)表示:“所有技术都可以用来做好事,也可以用来做坏事。人工智能这种技术可以用来帮助解决当今社会面临的许多紧迫问题——不平等和贫困、成本上升等。”医疗保健、全球变暖的影响……但它也可能被用来造成不必要的伤害。”
研究人员认为,用机器代替人类士兵有好处,可以减少伤亡,但也有坏处,因为它降低了上战场的门槛。
公开信:
自主武器:人工智能和机器人研究人员的公开信
自主武器无需人工干预即可选择并攻击目标。 例如,它们可能包括武装四轴飞行器,可以搜索并消灭符合某些预先定义标准的人员,但不包括由人类做出所有目标决策的巡航导弹或遥控无人机。 人工智能(AI)技术已经达到这样的程度:部署此类系统在几年而不是几十年内实际上是可行的,而不是几十年,而且风险很高:自主武器被描述为继火药之后战争的第三次革命和核武器。
支持和反对自主武器的论点有很多,例如,用机器代替人类士兵有好处,可以减少拥有者的伤亡,但坏处是降低了上战场的门槛。 当今人类面临的关键问题是,是开启全球人工智能军备竞赛还是阻止其开始。 如果任何主要军事大国推进人工智能武器的发展,全球军备竞赛几乎是不可避免的,这一技术轨迹的终点是显而易见的:自主武器将成为明天的卡拉什尼科夫冲锋枪。
与核武器不同,它们不需要昂贵或难以获得的原材料,因此它们将变得无处不在且廉价,可供所有重要军事大国大规模生产。 它们出现在黑市并落入恐怖分子、希望更好地控制民众的独裁者、希望进行种族清洗的军阀等手中只是时间问题。自主武器非常适合执行暗杀、破坏稳定等任务。国家,征服人民并有选择地杀害特定种族群体。
因此,我们认为军事人工智能军备竞赛不会给人类带来好处。 人工智能可以通过多种方式使人类(尤其是平民)的战场更加安全,而无需创造新的杀人工具。
正如大多数化学家和生物学家对制造化学或生物武器没有兴趣一样,大多数人工智能研究人员对制造人工智能武器也没有兴趣 - 并且不希望其他人这样做玷污他们的领域,从而可能引起公众对人工智能的强烈抵制,从而限制人工智能的发展其未来的社会效益。 事实上,化学家和生物学家广泛支持成功禁止化学武器和生物武器的国际协议,就像大多数物理学家支持禁止天基核武器和致盲激光武器的条约一样。
总而言之,我们认为人工智能具有在许多方面造福人类的巨大潜力,并且该领域的目标应该是这样做。 发起军事人工智能军备竞赛是一个坏主意,应该通过禁止超出人类有效控制范围的进攻性自主武器来防止。
本文最初发表于商业内幕。
更多来自商业内幕: