埃隆·马斯克(Elon Musk)正在设计飞船,以将宇航员运送到地球轨道及其他地区,但他现在是三名主要技术参与者之一,警告人工智能的危险。加入他的是著名的天体物理学家史蒂芬·霍金(Stephen Hawking)和苹果联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)以及其他1,000多个签署人,以警告恐怖的潜在影响,从编程为战争的机器人开发中。
三人警告说,从技术角度来看,自主武器,能够在没有控制器指导的情况下杀死人类目标的机器人几乎可以触及。研究人员警告说,这种系统可能会在短短几年内开始存在。在枪粉和核武器之后,某些人将这些武器描述为战争中的第三大革命。
该技术领导者警告说,很快就会开发出这种设备,这对于制止人口,进行暗杀甚至针对特定种族或种族的所有成员都是理想的选择。
“与核武器不同,它们不需要成本高昂或难以实现的原材料,因此它们将变得无处不在且便宜,对于大量生产的所有重要军事力量都将是一个时间问题。直到他们出现在黑市上,并在恐怖分子身上出现,希望更好地控制民众,希望能更好地控制民族的恐怖分子,等独裁者。宣布生命研究所的未来。
这封信的组织者警告说,如果任何国家随着自主武器的发展而前进,竞争对手之间可能会发生军备竞赛。这些签署人包括当今世界各地的机器人研究中的一些顶级名称,在确定是否要执行任务时,没有干预的无人干预的实时目标进行编程的机器人。
装备有手枪的消费者无人机最近在万维网上引发了争议,尽管该设备是由人类远程控制的。
沃兹尼亚克(Wozniak),霍金(Hawking)和马斯克(Musk)警告自动武器的危险,但该系统的支持者认为,部署设备可以挽救士兵的生命。生命基金会的未来反驳说,可以通过多种方式利用AI来挽救战场上的生命,尤其是平民的生命,而无需开发新武器系统。
作者在声明中写道:“这种技术轨迹的终点很明显:自动武器将成为明天的卡拉什尼科夫。当今人类的关键问题是是开始全球AI军备竞赛还是阻止其开始。”
这封信是在IJCAI-15的国际人工智能会议,直到7月31日在阿根廷布宜诺斯艾利斯举行。IJCAI是AI研究人员的主要国际聚会。