一封由人工智能签署的公开信()研究人员、研究所所长和社交媒体网站的首席执行官,包括埃隆·马斯克(Elon Musk),已要求立即暂停所有人工智能实验,因为如果先进的人工智能在没有适当管理和管理的情况下创建,将“对社会和人类造成巨大风险”。规划。
与此同时,另一位在《时代》杂志上撰文的研究人员认为,这还不够,如果人类要长期生存,我们需要“全部关闭”并禁止某些技术。
这公开信说“人工智能之夏”,所有实验室都会暂停任何比开放人工智能更强大的工作这是必要的,因为最近几个月人工智能研究人员一直在“失控的竞赛中开发和部署更强大的数字思维,没有人——甚至是它们的创造者——能够理解、预测或可靠地控制。”
在暂停期间,公开信要求人工智能实验室和专家共同制定用于设计人工智能的共享安全协议,并由独立的外部专家监督。它还建议人工智能研究人员应与政策制定者合作,创建人工智能监督系统,以及较小的实际步骤,例如为其创建的图像添加水印。
“人类可以通过人工智能享受繁荣的未来。在成功创建强大的人工智能系统后,我们现在可以享受‘人工智能之夏’,在其中我们获得回报,设计这些系统以造福所有人,并给社会一个机会适应,”信中总结道。
“社会已经暂停了其他可能对社会造成灾难性影响的技术。我们可以在这里这样做。让我们享受一个漫长的人工智能夏天,而不是毫无准备地匆忙进入秋天。”
这封信由谷歌和 DeepMind 的研究人员以及苹果联合创始人史蒂夫·沃兹尼亚克签署。
有些人称之为公关活动,旨在增强技术的力量和未来潜在的危险,而不是在短期内解决当前(和不久的将来)人工智能造成的现实问题。
然而,对于美国计算机科学家、机器智能研究所首席研究员 Eliezer Yudkowsky 来说,这封信的意义还不够。
他在为《科学》杂志撰写的一篇文章中写道:“许多专注于这些问题的研究人员,包括我自己,预计,在像当前情况这样的情况下,构建一个超人智能的人工智能最有可能的结果是,地球上的每个人都会死亡。”时间,将人类与人工智能的竞争比作 11 世纪的每个人试图与 21 世纪的每个人战斗。
尤德科斯基认为,目前,我们远远落后于安全地创造人工智能所需的水平,而这最终不会导致人类的灭亡。赶上这个位置可能需要 30 年的时间。他建议限制训练人工智能的人的计算能力,然后随着算法变得更有效来补偿而慢慢减少功率分配。但本质上,他的政策是“全部关闭”。
他写道:“人工智能能力的进步远远领先于人工智能协调的进步,甚至领先于理解这些系统内部到底发生了什么的进步。” “如果我们真的这样做,我们都会死。”