人工智能(AI)具有巨大的潜力。但是,世界各地的AI专家正在签署一封公开信,以保护人类免受致命机器破坏的影响。
生命研究所的未来提出了一封公开的信,希望确保人工智能的进步不会超出人类的控制。
公开信的附带文件解释[PDF]人类文明的发展是人类智力的结果。在创造AI的人类发展的帮助下,人类可以取得更多的成就。这封信强调了AI也具有很大的潜力,但人们也应该意识到其危险。
关于生活未来的附带文件暗示了人类可能遇到的某些潜在风险。
“寻求人工智能的成功有可能为人类带来前所未有的利益,因此,值得研究如何在避免潜在的陷阱的同时最大程度地提高这些收益,”附带文件的摘要写道。
公开信已经由许多行业专家(例如Demis Hassabis,Shane Legg和Mustafa Suleyman)签署,他们是Google于2014年被Google收购的英国AI Company DeepMind的联合创始人。
马萨诸塞州理工学院(MIT)教授的Erik Brynjolfsson和Leslie Pack Kaelbling以及许多MIT学生也签署了公开信。
生命研究所未来的三个主要问题是自动驾驶汽车,自动武器和机器道德。
生命研究所未来的重点是解释涉及人为人类的人为AI的可能风险。在好莱坞电影《终结者》中也描绘了一个类似的概念,在该电影摧毁了人类之前,阻力试图阻止天网。
特斯拉和SpaceX的首席执行官Elon Musk是该研究所科学顾问委员会的成员。马斯克还提出了对AI领域的发展的担忧,并表示可能比核武器更严重。
马斯克还透露,他认为应在国际或国家一级对AI进行监管,以便有某些限制。马斯克还签署了这封信。
也签署了这封信的斯蒂芬·霍金教授建议AI有可能造成可怕的后果。