牛津学术界警告说,在为时已晚之前开发安全的人工智能
《终结者救赎》,翡翠公司/华纳兄弟影业/哥伦比亚影业
关于超级智能机器人及其潜在危险的争论并不是什么新鲜事,但直到最近几年,软件的速度和能力才得以发展,使我们接近创造一台有一天可能比我们更聪明的机器。 。英国牛津大学的学者斯图尔特·阿姆斯特朗(Stuart Armstrong)一直在阐述下一代人工智能的威胁,并且说程序员必须努力确保安全在它失控之前。
问题的一部分在于准确定义“安全”的含义:阿姆斯特朗说,被指示防止人类痛苦的机器人理论上可能会决定杀死病人和体弱者,或者被指示保护人类的机器人可能会为了自己的利益而决定监禁他们。
“你可以给予人工智能控制,它将受到所给予的控制。”阿姆斯特朗说,正如电讯报报告。 “但这些可能不是本意的控制。”
阿姆斯特朗在技术研究公司 Gartner 组织的人工智能辩论会上发表讲话,他表示很难预测机器的发展方向,直到为时已晚。尽管机器人可以用道德准则进行编程,但定义这些道德是什么以及如何应用它们将是有问题的——在不添加人工智能机器人的情况下,让人类就正确和错误达成一致已经够困难的了。
“在创建第一个危险的人工智能之前,必须制定安全人工智能的计划,”阿姆斯特朗说。 “软件行业价值数十亿美元,人们正在为新的人工智能技术投入大量精力。放慢这种发展速度的计划似乎不切实际。因此,我们必须向安全人工智能的遥远目的地竞相前进,并快速到达那里,超越了计算机行业的进步。”
阿姆斯特朗说,当我们急于利用计算机处理能力来解决我们这个时代一些最棘手的问题时,我们也在加速能够独立于其创建者运行的软件系统的到来——因此,在试图从人工智能中受益的过程中,我们可能会比我们应该做的更进一步。 “人类驾驭未来不是因为我们是最强大或最快的,而是因为我们是最聪明的,”牛津学者说。 “当机器变得比人类更聪明时,我们就会把方向盘交给它们。”
在牛津大学人类未来研究所工作的阿姆斯特朗表示,关键时刻可能会在未来几十年内到来。他说,风险在于创造一个我们完全依赖软件和硬件的世界——当我们变得依赖时,我们很快就会变得多余。机器将有能力在没有人类交互的情况下直接相互通信。
尽管阿姆斯特朗的预测令人不安,但你会发现关于人工智能的发展方向有许多不同的观点,世界上一些最优秀的人才正在研究这个问题,以确保我们未来不会被机器人淹没。可能值得密切关注 Siri不过,以防万一。