来自世界各地的外交官上周在日内瓦举行联合国第三次会议非正式专家会议关于致命性自主武器系统(法律),通常被称为“杀手机器人”。
他们的目标是在决定如何或是否应根据法律对法律进行监管方面取得进展国际人道法。
会议上表达了一系列观点,从巴基斯坦支持全面禁令,到英国不支持对 LAWS 实施新的监管,以及中间的一些立场。
尽管提出的观点多种多样,但还是有一些共同点。
人们普遍认为法律受国际人道法管辖。 例如,机器人不能忽视以下原则:平民和战斗人员之间的区别, 或者攻击规模的相称性。
人类指挥官也将对他们的机器人负有指挥责任,就像他们对男女军人所做的那样。 机器人不能合法地用于实施种族灭绝、屠杀和战争罪。
除此之外,各国大致采取了四种立场。
立场一:依靠现行法律
英国的立场是,现有的国际人道法足以规范新兴技术(人工智能) 和机器人技术。
他们的论点是,当飞机和潜艇出现时,国际人道法足以对其进行监管,而且它也能应对多种法律。 这将包括捕食者无人机配备“道德监管者”(一种旨在确定打击是否符合特定交战规则和国际人道主义法的软件)或自主反潜战舰,例如美国海军的实验性自主舰艇海上猎人。
位置2:禁止
法国代表团表示,禁令“为时过早”,他们愿意接受“脱离循环“法律具有“更广泛的循环中的人类”。这意味着机器可以自主选择目标并开火,但人类仍然制定交战规则。
然而,他们对监管持开放态度机器学习在“离线”法律中(尚不存在)。 因此,他们可能支持未来禁止任何自学人工智能——类似于阿尔法围棋,它最近击败了人类世界围棋冠军——在更广泛的循环中无需人类直接控制导弹。 主要担心的是这样的人工智能可能是不可预测的。
立场 3:禁止“脱离循环”,让“人在更广泛的循环中”
荷兰和瑞士代表团建议,“人在更广泛的循环中”的“脱离循环”系统可以遵守国际人道主义法,表现出足够有意义的人类控制并满足公众良心的要求。
英国、法国和加拿大表示反对禁止此类系统。
这种机器人武器的拥护者声称,它们在道德上优于人类士兵,因为它们会更准确、更精确,并且不太容易因恐慌或报复而做出错误的决定。
反对者认为,他们可能会在杂乱或封闭的环境中迷失目标,这在道德上是不可接受的。
例如,罗马教廷和其他 13 个国家认为在道德上需要人类对结束生命的决定进行实时干预,因此必须始终有人参与其中。
这一立场要求对已经部署的“防御”武器进行例外处理,例如方阵近战武器系统,以及自 1860 年代以来就已存在的水雷等长期接受的“脱环”武器。
立场4:禁止“循环”武器
巴基斯坦和巴勒斯坦将支持任何足以禁止遥控无人机的措施。 然而,大多数国家认为这超出了法律辩论的范围,因为选择和攻击目标的决定是人类做出的,尽管许多人认为无人机是一场人权灾难。
用图灵来定义线条
从形式上来说,人工智能是图灵机机械地将规则应用于符号输入以生成输出。
对机器学习的禁令 LAWS 是对人工智能更新自己的规则手册以做出致命决定的禁令。 对“更广泛的循环”法律的禁令是对人工智能的禁令,通过人类编写的规则手册做出致命的决定。 禁止“循环”法律就是禁止人类驾驶的机器人被用作武器。
关于图灵计算对决策的控制是否有意义或人为的观点也存在分歧。
下一步
日内瓦会议是一次非正式专家会议,旨在澄清定义并就条约中可能禁止或监管的内容(如果有的话)达成共识。 因此,没有对条约措辞进行投票。
最有可能的结果是成立一个政府专家小组来继续讨论。 人工智能、机器人技术和法律仍在开发中。 就目前情况而言,世界处于第一立场:依靠现有国际人道法。
如果负责导弹的 AlphaGo 遵守歧视和比例等原则,那么它就不会明显违法,只是可以说是违法的。