可以下棋、开车和诊断医疗问题。 示例包括 Google DeepMind阿尔法围棋, 特斯拉的自动驾驶车辆, 和IBM 的沃森。
这种类型的人工智能被称为狭义人工智能(ANI)——可以执行特定任务的非人类系统。 我们在a上遇到这种类型每日基础,并且其使用正在迅速增长。
但是,尽管许多令人印象深刻的功能已经得到展示,但我们也开始查看问题。 最糟糕的情况涉及自动驾驶测试车撞到行人三月。 行人死亡,事件仍在进一步处理中调查。
下一代人工智能
对于下一代人工智能来说,风险几乎肯定会更高。
通用人工智能(通用人工智能)将拥有先进的计算能力和人类水平的智能。 AGI 系统将能够学习、解决问题、适应和自我改进。
他们甚至会完成超出其设计目的的任务。
重要的是,随着它们比人类创造者先进得多,它们的改进速度可能呈指数级增长。 AGI的引入可以迅速带来人工智能(但)。
虽然功能齐全的 AGI 系统尚不存在,但据估计,它们将在我们身边的任何地方出现2029年和本世纪末。
几乎可以肯定的是他们会到达最终。 当它们发生时,我们会自然而然地担心我们无法控制它们。
与 AGI 相关的风险
毫无疑问,通用人工智能系统可以改变人类。
一些更强大的应用包括治愈疾病、解决复杂的全球挑战,例如和粮食安全,并引发全球技术热潮。
但如果未能实施适当的控制,可能会导致灾难性的后果。
尽管我们看到的是好莱坞电影,生存威胁不太可能涉及杀手机器人。
麻省理工学院教授马克斯·泰格马克在其 2017 年的书中写道,问题不是恶意,而是智慧。生活3.0:人工智能时代的人类。
正是在这里,人机系统科学被称为人为因素和人体工程学– 将脱颖而出。
风险来自于这样一个事实:超级智能系统将识别更有效的做事方式,制定自己的策略来实现目标,甚至制定自己的目标。
想象一下这些例子:
-
一个 AGI 系统,其任务是防止决定通过杀死所有携带这种疾病的人或负责治愈的人来根除这个问题决定杀死所有有遗传倾向的人
-
一架自主 AGI 军用无人机认为确保摧毁敌方目标的唯一方法就是消灭整个社区
-
环境保护型通用人工智能认为,减缓或扭转气候变化的唯一方法是消除诱发气候变化的技术和人类。
这些场景引发了不同 AGI 系统相互竞争的担忧,这些系统都没有将人类关注作为其核心任务。
各种反乌托邦的未来已经被提出,包括那些人类最终被淘汰的未来,以及随后的人类的灭绝。
其他人则转发了不那么极端但仍然严重的破坏,包括恶意使用 AGI恐怖分子和网络攻击, 这消除对人类工作的需要, 和大规模监视,仅举几例。
因此,需要以人为本的研究来设计和管理 AGI 的最安全方法,以最大限度地降低风险并最大化收益。
如何控制AGI
控制通用人工智能并不像简单地应用控制人类的同类控制那么简单。
对人类行为的许多控制依赖于我们、我们的情感以及我们道德价值观的应用。AGI 不需要任何这些属性来对我们造成伤害。 目前的控制形式还不够。
可以说,有三组控件需要立即开发和测试:
-
确保 AGI 系统设计者和开发者创建安全 AGI 系统所需的控制
-
AGI本身需要内置的控制措施,例如“常识”、道德、操作程序、决策规则等
-
需要添加到 AGI 运行的更广泛系统中的控制措施,例如监管、实践守则、标准操作程序、监控系统和基础设施。
人为因素和人体工程学提供了可用于在 AGI 系统出现之前识别、设计和测试此类控制的方法。
例如,可以对特定系统中存在的控制进行建模,对该控制结构内 AGI 系统的可能行为进行建模,并识别安全风险。
这将使我们能够确定哪里需要新的控制措施,设计它们,然后进行改造,看看风险是否会因此消除。
此外,我们的认知和决策模型可用于确保 AGI 行为适当并具有人文价值。
现在就行动,不迟
这种研究是进行中,但还不够,涉及的学科也不够多。
即使是备受瞩目的科技企业家已警告“存在危机“人类面临着先进的人工智能,并谈到了需要在为时已晚之前监管人工智能。
未来十年左右是一个关键时期。 我们有机会创建安全高效的通用人工智能系统,为社会和人类带来深远的利益。
与此同时,如果我们采取一切照旧的方式追赶快速的技术进步,可能会导致人类的灭绝。 球在我们的球场上,但不会持续太久。
保罗·萨蒙,人为因素教授,阳光海岸大学;彼得·汉考克,心理学、土木与环境工程、工业工程与管理系统教授,中佛罗里达大学, 和托尼·卡登,研究员,阳光海岸大学