在人工智能支持者的快速增长中,斯蒂芬·霍金(Stephen Hawking)警告说,人工智能最终将使人类过时。如果人类在发展中太激进,AIS可能弊大于利。
AIS的表现优于人类
这不是著名物理学家第一次警告AI启示录。他以前说过迅速前进的技术可能会为人类说明厄运从现在开始几年。
去年10月,在剑桥大学的人工智能中心成立期间,霍金已经表达了他担心AIS就像双刃剑一样 - 它们可能是最伟大的发明之一,但它们也可能是人类最糟糕的噩梦。尽管它的发展可以帮助技术进步,但他们也有可能消灭人性化 - 他一直在提醒所有人的预测。
霍金在最近的采访中分享说,人工智能已经发挥了潜力的时候到了比人类更有效,使我们对他们无能为力。
“我担心AI可能会完全取代人类,”说鹰。 “如果人们设计计算机病毒,就会有人设计改进和复制自身的人工智能。这将是一种超越人类的新生活形式。”
技术很好,但要谨慎
霍金承认,技术对人类具有少数好处。它可以帮助最终疾病和遏制贫困,但如果谨慎,也可能是致命的。
他还警告说,人类应该为可能的后果做准备。专家和利益相关者应意识到其潜在危险,并在其失控之前认识和管理它们。
SpaceX创始人兼首席执行官Elon Musk回应了Hawking的观点。但是,马斯克认为政府必须对AIS采取强烈立场通过制定法律来规范它。
微软联合创始人比尔·盖茨(Bill Gates)在之前的采访中似乎淡化了威胁。
“埃隆担心的所谓控制问题并不是人们应该觉得即将到来的事情。”说大门。 “我们不应该为此感到恐慌。”
霍金强调每个人都需要沉浸在科学研究中。他解释说,获得有关AI发展的理论辩论是为了为未来做准备的必要条件。
“大家都有可能突破所接受或期望的事物的界限,并思考大事。”共享。 “这是一个令人兴奋的(如果不稳定)的地方,而你是先驱。”