近年来,人工智能(AI)一直是人类生活的巨大因素,因为几乎所有行业都在寻找技术,并且依赖于它带来的服务,从而使日常过程无问题。但是,研究人员警告说,“超级智能” AI的发展有可能不服从命令,并且无法控制其行为。

人工智能的危险并不是罕见的问题或辩论,该领域的科学家,研究人员和专家一直在易于实现,并且在其出现期间多年来一直是研究的重点。与人工智能相关的最常见危险是“推翻”人类,随着人工智会的不断发展和改善,具有很大的可能性。
AI以机器人的形式形成,尽管危险危险,但所有人都被指示或旨在改善人类的生活,并减轻付出人力的艰苦劳动和复杂工作。 AI的最新创新和改进是在基于智能的作品(例如计算和决策)中取代人类,这些作品均源自AI的发展。
超级智能AI很快就无法控制
根据人工智能研究杂志(JAIR),“超级智能AI”构成了一个严重的问题和对人类生存的威胁,因为它很快就变得不可能或最终难以控制。随着人工智能开始自行思考,尽管设置了参数或限制,但它仍将否认命令和控件。

首席研究员Manuel Alfonseca宣称的是,使用“计算性理论”使他们得出了有关“超级智能AI的“将来的不可控制的行动”的结论。尽管当今的技术接近这些机器的超级智能,但不断学习的AI的局限性将以某种方式摆脱了他们的控制。

那些发展人工智能的人无法控制或意外,这是不可避免的事件,一旦不服从开始,人类就会成为人类。像人类一样,人工智能具有每天追求学习的技术和能力,与人的能力不会衰减或“变老”,这与人相比也更好。
AI风险:自1936年以来的理论与计算

尽管该小组的研究理论基金会与AI的出现并不直接相关,但Alan Turning 1936年的研究称为“停止问题“这是该小组结束研究的主要基础之一。该理论说,计算机会不断寻找知识,并且在某些情况下,它不知道它已经解决了知识。
计算机的问题将使它陷入悖论或无尽的循环,以学习更多并推动前进。听起来很恐怖,但是超级智能的AI可能会降临这一厄运,人们将是面对这一后果的人,没有任何“限制”或控制停止学习机器的人。
本文由技术时报拥有
由以赛亚·阿隆佐(Isaiah Alonzo)撰写