人工智能(AI)具有巨大的潛力。但是,世界各地的AI專家正在簽署一封公開信,以保護人類免受致命機器破壞的影響。
生命研究所的未來提出了一封公開的信,希望確保人工智能的進步不會超出人類的控制。
公開信的附帶文件解釋[PDF]人類文明的發展是人類智力的結果。在創造AI的人類發展的幫助下,人類可以取得更多的成就。這封信強調了AI也具有很大的潛力,但人們也應該意識到其危險。
關於生活未來的附帶文件暗示了人類可能遇到的某些潛在風險。
“尋求人工智能的成功有可能為人類帶來前所未有的利益,因此,值得研究如何在避免潛在的陷阱的同時最大程度地提高這些收益,”附帶文件的摘要寫道。
公開信已經由許多行業專家(例如Demis Hassabis,Shane Legg和Mustafa Suleyman)簽署,他們是Google於2014年被Google收購的英國AI Company DeepMind的聯合創始人。
馬薩諸塞州理工學院(MIT)教授的Erik Brynjolfsson和Leslie Pack Kaelbling以及許多MIT學生也簽署了公開信。
生命研究所未來的三個主要問題是自動駕駛汽車,自動武器和機器道德。
生命研究所未來的重點是解釋涉及人為人類的人為AI的可能風險。在好萊塢電影《終結者》中也描繪了一個類似的概念,在該電影摧毀了人類之前,阻力試圖阻止天網。
特斯拉和SpaceX的首席執行官Elon Musk是該研究所科學顧問委員會的成員。馬斯克還提出了對AI領域的發展的擔憂,並表示可能比核武器更嚴重。
馬斯克還透露,他認為應在國際或國家一級對AI進行監管,以便有某些限制。馬斯克還簽署了這封信。
也簽署了這封信的斯蒂芬·霍金教授建議AI有可能造成可怕的後果。