Google的研究人員擔心未來人工智能係統出了某些問題。
Google - 在與斯坦福大學,加利福尼亞大學伯克利分校和埃隆·馬斯克(Elon Musk)支持的研究人員合作製作的新發行的研究論文中開發商Erana- 想知道如何正確設計機器人思維,而不會對其所有者造成危險,意外的後果。
科技科學家提出了五個“實踐研究問題”,程序員在開始創建另一個AI系統之前必須考慮這些問題:
•避免負面影響- 一個問題是:如何停止機器人在執行家務時敲門或書櫃?
•避免獎勵黑客- 由於機器人被編程以宗教清理房間,因此如何防止它擺脫責任感的愉悅樂趣?
•可擴展的監督- 允許有多少決策機器人,是否需要在每次移動對象之前就需要徵求許可?
•安全探索- 如何教授機器人的好奇心限制?基於研究人員的示例,AI系統可能正在學習應該在哪裡進行拖把和完成任務的最佳方法,但是如何才能告訴它,將濕的拖把帶到新區域是正確的,但是它不應該將物體粘貼在電氣插座中呢?
•分配轉移的穩健性- 確保機器人知道如何尊重他們居住的空間也很重要。但是,家庭清潔機器人學會如何從掃除工廠的機器上採取不同的行動?
Google研究員克里斯·奧拉(Chris Olah)在隨附的博客文章中強調,圍繞AI安全風險的討論仍然是高度假設和投機性的。
“我們認為,真正的機器學習研究中的關注至關重要,並開始開發安全可靠地運行的工程AI系統的實用方法,”說。
作者提出了一系列減輕潛在傷害的方法,例如建立機器人代理在擊中現實世界之前可以運行的模擬。人類的監督也證明至關重要:人類處理程序可以在後者採取行動超出其參考領域之前檢查機器人。
Google在遊戲中有一個有趣的股份報告。這家科技公司可能會卸載其機器人硬件公司波士頓動力學,但它將資金和資源不斷投入到不同的AI計劃中。
看此處的完整技術報告。
照片:Shunichi Kouroki |Flickr