一位美國頂級計算機科學專家警告說,當面對能夠自行思考並被殺死的機器人的威脅時,人類可能是毫無防備的。
加利福尼亞大學伯克利分校的斯圖爾特·羅素(Stuart Russell)表示,這些致命的無人機可能是朝著致命的自主武器系統(法律)進行的技術遊行的最後階段,這些武器系統(法律)被描述為戰爭之後的戰爭和核武器後的第三次革命。
在發表的評論文章中自然羅素(Russell)在5月27日說,不再由人類控制的武器的可行性在遙遠的將來不再受到限制 - 幾十年來實際上可能是可行的,而是在幾年之內。
他認為,這些機器可能不是由於其智能而受到的限制,而是由於它們的身體限制,例如火力,流動性和速度。
自主武器系統能夠在不需要人類干預的情況下選擇和參與目標,當目標包括人類時,這些系統可能是致命的。這樣的先進和致命的機器可能包括可以狩獵和消除敵方戰鬥人員的武裝四輪武器。
法律不包括遠程駕駛的無人機和仍然需要人類做出目標決定的巡航導彈。
當今存在的人工智能(AI)和機器人組件具有感知,映射,運動控制,導航和長期計劃之類的功能,並且這些功能只需要合併。
例如,在自動駕駛汽車中可以看到的技術可以與DeepMind DQN系統的戰術控制能力相結合,並且這些技術可以支持搜索和破壞任務。
人道主義法目前沒有關於這種技術的規定,國際社會是否支持將限製或禁止法律的條約,還有待觀察。
羅素(Russell)已經詢問了他的同齡人,專門從事人工智能和機器人技術的科學家以及專業的科學組織,就在生物學家闡明了對疾病在戰爭中使用疾病的立場以及物理學家對使用核武器的立場一樣。
羅素說,法律可能會通過給機器選擇殺人的機會來違反人類尊嚴的基本原則,例如,當這些殺害的人被任務消除了表現出威脅性行為的人時。
“法律技術可能會流血進入和平時期警務職能的潛力對於人權組織和無人機製造商來說是顯而易見的,”羅素說。
照片:Gage Skidmore |Flickr