
幾位科學家警告說,除非各國可以禁止開發這種武器,否則幾乎可以肯定會發生一項全球武器競賽。
億萬富翁企業家埃隆·馬斯克(Elon Musk),物理學家史蒂芬·霍金(Stephen Hawking)和其他技術名人簽署了一封公開的信,警告了開始全球軍備競賽的危險人工智能(AI)技術除非聯合國支持禁止人類“沒有有意義控制”的武器。
這封信是由生命組織的未來發布的,今天(7月27日)在阿根廷布宜諾斯艾利斯國際人工智能會議上發表。 [超級智能機器:7機器人期貨這是給出的
“當今人類的關鍵問題是是開始全球AI軍備競賽還是防止其開始。如果任何主要的軍事力量推動了AI武器的發展,全球軍備競賽實際上是不可避免的,並且這種技術軌蹟的終點很明顯:自動武器將成為明天的Kalashnikovs,”這封信讀了,指自動武器。
簽署人說,這些風險可能遠大於核武器帶來的風險。
機器的興起
從自動駕駛汽車到性機器人,人類的基本任務越來越被機器人接管。這些機器的不可避免的遊行刺激了未來的烏托邦和世界末日的願景。威脅人類的Rogue AI在科幻電影(例如“ Matrix”和“ 2001:太空漫遊”等科幻電影中突出了。
但是越來越多的恐懼不僅在銀幕上播出。實際上,人工智慧的研究人員本身已經對該領域的創新產生了擔憂。這封信的作者藉助自主的AI武器(例如可以使用面部識別算法尋找和殺死人的無人機飛機),該技術可能會在多年的時間內在這裡。
信函指出,儘管無人機戰鬥機可能會限制戰場的傷亡,但這些自動駕駛室也可能首先降低引發衝突的門檻。
此外,可以想像,這種自動武器幾乎掌握在地球上的每一個軍事力量上,因為基於AI的殺戮機器不需要昂貴或難以實現的材料。科學家寫道,不久之後,刺客,恐怖分子和其他壞演員就可以在黑市上購買它們,並將其用於邪惡目的。
信件指出:“自主武器是暗殺,破壞穩定國家,征服人口並有選擇地殺死特定種族的任務的理想選擇。因此,我們認為軍事AI軍備競賽不會對人類有益。”
這不是科學和技術名人警告AI危險的第一次。霍金在2014年說,完整的發展人工智能可以拼寫人類的終結。霍金(Hawking)和馬斯克(Musk)在一月份警告說人工智能構成了巨大危險除非人類能夠確保AI系統“將做我們想要的事情”。
跟隨Tia Ghose嘰嘰喳喳和Google+。跟隨現場科學@livescience,,,,Facebook和Google+。原始文章現場科學。