人工智慧能否將武裝衝突轉變為戰爭災難?由 116 名機器人或人工智慧公司經理組成的小組這麼認為。他寫了一個公開信在聯合國警告綽號為「殺手機器人」的自主武器的危險。簽署者包括電動和半自動汽車製造商特斯拉的老闆埃隆·馬斯克(Elon Musk),以及英國公司DeepMind的穆斯塔法·蘇萊曼(Mustafa Suleyman),該公司屬於谷歌旗下,專門從事人工智慧領域。
這「自主進攻性武器(…)將使武裝衝突的規模前所未見,速度難以想像”,我們可以在這封致聯合國武器公約的公開信中讀到。“作為開發可能被濫用來開發自主武器的人工智慧和機器人技術的公司,我們感到特別有責任敲響警報。”,他們仍然說。
「它們可能是可怕的武器,可能是獨裁者和恐怖分子針對無辜民眾使用的武器,也可能是出於邪惡目的而被黑客入侵的武器。”總部位於美國的非營利組織生命未來研究所周日發布了這封信,簽署者繼續說道,該機構對技術可能造成的傷害發出警告。「我們沒有太多時間採取行動。這個潘朵拉魔盒一旦打開,就很難關上。這就是為什麼我們懇求(您)找到一種方法來保護我們免受這些危險”,簽名者來自世界各地。
大規模殺傷性武器
在一個新聞稿在同時播出的同時,簽署方強調,自主進攻武器遠非幻想,因為這些技術目前正在開發中。特別是,它們正在實驗室中進行研究美國軍隊。「除非人們希望看到新的大規模殺傷性武器在世界各地傳播——例如以大量致命微型無人機的形式——否則就必須加強並支持聯合國制定禁止致命自主武器條約的努力。這對國家和國際安全至關重要”另一位簽名者、貝葉斯邏輯創始人斯圖爾特·拉塞爾 (Stuart Russell) 認為。
據聯合國網站稱,聯合國自 2013 年以來一直在研究此類武器,有關該主題的會議原定於週一在日內瓦舉行,但會議最終被取消並推遲到 11 月。 2015年,數千名研究人員和知名人士已經呼籲禁止「自主攻擊性武器」。
未來生命研究所成員馬斯克和英國著名天體物理學家史蒂芬霍金經常警告人工智慧的「危險」。 2014 年,他估計該技術領域的進展非常迅速,最終可能:掃除人類。