埃隆·马斯克(Elon Musk)以及100多个领导人和专家人工智能(AI)聚集在一起,敦促联合国对杀手机器人技术进行直接禁令。
一个公开信由Musk,Google Deepmind的Mustafa Suleyman和其他114位AI和机器人专家签署致命的自主武器系统。
公开信与世界上最大的AI会议相吻合 - IJCAI 2017这周将在澳大利亚墨尔本举行 - 警告不久的将来,独立机器将能够选择和参与自己的目标,包括无辜人类,除了敌方战斗人员外。
“一旦开发,他们将允许武装冲突比以往任何时候都更大,并且在时间标准的速度比人类所能理解的要快。”财团写道。
“这些可以是恐怖武器,武器,武器是霸主和恐怖分子对无辜人口使用的武器,以及以不良方式行事的武器。”
这不是马斯克第一次,他的世界观有联合引起注意威胁自主武器对人类构成构成。
SpaceX和特斯拉首席也在Openai后面,一个致力于推进道德AI研究的非营利组织。
但是尽管有担忧的AI专家发声,但制定有效禁令的延迟反对自主武器导致一些人担心危险可能超出法规,特别是考虑到AI系统正在开发的快速速度。
“我们没有长时间的行动,”公开信阅读。 “一旦打开了这个潘多拉的盒子,就很难关闭。”
活动家将杀手机器人称为杀手机器人的“第三次革命”是一种技术继任者,是火药和核武器的历史发展 - 创新并没有完全改善我们所生活的世界。
虽然新字母不是第一次专家利用了ijcai为了指出他们的观点,这是AI和机器人公司的代表(来自约26个国家 /地区)的第一次在这个问题上取得了共同的立场,加入了包括斯蒂芬·霍金,Noam Chomsky和Apple联合创始人Steve Wozniak。
“签署这封信的著名公司和个人的数量加强了我们的警告,这不是假设的情况,而是一个非常真实,非常紧迫的关注,需要立即采取行动,”Clearpath Robotics的创始人Ryan Gariepy说。
“我们不应该忽视这样一个事实,即与仍然存在于科幻小说领域的其他潜在表现不同,自主武器系统现在正处于发展的风口浪尖。”
最后一点是应该强调的。虽然自动武器系统的终极噩梦可能是像本页顶部的T – 800这样的未来,但现实是基于AI的杀戮机器已经是一回事。
自主或半自主能力越来越多地被内置在诸如三星SGR-A1哨兵,BAE系统TARANIS无人机,然后达帕的海猎人潜艇。
换句话说,明天的杀手机器人的技术种子已经存在于陆地,海洋和空中 - 以及有效的法律,以规范这些致命的机器(以及弯腰制造的行业)尚未写下来。
好吧,没有像现在这样的时间。
“几乎每种技术都可以用来好与坏,人工智能也没有什么不同,”AI研究人员托比·沃尔什(Toby Walsh)说来自澳大利亚的UNSW,是IJCAI 2017的组织者之一。
“它可以帮助解决当今社会面临的许多紧迫问题……[h] owever,同样的技术也可以用于自动武器来工业战争。我们今天需要做出决定,选择我们想要的这些期货中的哪一个。”