以及100多位领导和专家(AI)齐心协力敦促联合国致力于彻底禁止杀手机器人技术。
一个打开信封由马斯克、谷歌 Deepmind 的穆斯塔法·苏莱曼 (Mustafa Suleyman) 和其他 114 名人工智能和机器人专家签署,敦促联合国禁止开发所有人工智能和机器人技术,以防止“第三次战争革命”致命自主武器系统。
这封公开信是在全球最大的人工智能会议同时发布的?IJCAI 2017,本周将在澳大利亚墨尔本举行? 警告在不久的将来,独立的机器将能够选择并攻击自己的目标,除了敌方战斗人员之外,还包括无辜的人类。
“一旦发展起来,它们将使武装冲突的规模比以往任何时候都大,时间尺度也比人类所能理解的更快,”该财团写道。
“这些武器可能是恐怖武器、暴君和恐怖分子针对无辜民众使用的武器,也可能是被黑客入侵以进行不良行为的武器。”
这不是马斯克和他的世界观第一次联合起来引起注意自主武器对人类构成的威胁。
SpaceX 和 Tesla 首席执行官也是 OpenAI 的幕后推手,一个致力于推进道德人工智能研究的非营利组织。
但尽管人工智能专家表达了担忧,制定有效禁令的工作持续拖延针对自主武器的攻击导致一些人担心其危险可能超出监管范围,特别是考虑到人工智能系统的快速发展。
公开信称“我们行动的时间不多了”读。 “这个潘多拉魔盒一旦打开,就很难关上。”
活动人士所说的“第三次革命”将杀手机器人定位为火药和核武器历史发展的技术继承者? 创新并没有完全改善我们生活的世界。
虽然这封新信并不是第一次出现这样的情况专家利用 IJCAI为了表达自己的观点,这是人工智能和机器人公司的代表第一次? 来自大约 26 个国家? 在这个问题上表明了共同立场,加入了独立研究人员的行列,包括、诺姆·乔姆斯基和苹果联合创始人史蒂夫·沃兹尼亚克。
“签署这封信的知名公司和个人的数量强化了我们的警告,即这不是假设的情况,而是一个非常真实、非常紧迫的问题,需要立即采取行动,”Clearpath Robotics 创始人 Ryan Gariepy 说道。
“我们不应忽视这样一个事实:与仍停留在科幻小说领域的人工智能其他潜在表现不同,自主武器系统目前正处于发展的风口浪尖。”
最后一点是应该强调的。 虽然自主武器系统的终极噩梦可能是未来充斥着像本页顶部那样的 T-800,但现实是基于人工智能的杀戮机器已经成为现实。
自主或半自主能力越来越多地被内置到武器中,例如三星SGR-A1哨兵炮BAE 系统公司塔拉尼斯无人机,以及DARPA 的海洋猎人潜艇。
换句话说,明天杀手机器人的技术种子已经存在于陆地、海洋和空中? 监管这些致命机器(以及热衷于制造这些机器的行业)的有效法律尚未出台。
嗯,没有比现在更好的时间了。
“几乎所有技术都可以用来做好事,也可以用来做坏事,人工智能也不例外。”人工智能研究员托比·沃尔什说来自澳大利亚新南威尔士大学,IJCAI 2017 的组织者之一。
“它可以帮助解决当今社会面临的许多紧迫问题?然而,同样的技术也可以用于自主武器,使战争工业化。我们今天需要做出决定,选择我们想要的未来。”