來自托尼·史塔克(Tony Stark)的賈維斯對於蘋果的Siri來說,人工智能(AI)在小說和現實生活中無處不在。
儘管具有不同水平的技巧,但AI據說是為了最大程度地達到目標的機會,從而支持人類。但是,如果機器人,AI系統和人形生物流氓會發生什麼?
對於計算機科學家羅馬Yampolskiy來說,可能性是無窮無盡的。 Yampolskiy與HackTivist Federico Pistono一起,先發出了一組故意惡意的AI的頭腦風暴。
由SpaceX首席執行官Elon Musk,Yampolskiy和Pistono的研究部分資助,其研究的原因與DARPA相同問將家居用品變成武器的技術人員。
二人認為,通過研究確定威脅要比以後成為侵略性攻擊時要適應它要好得多。這將有助於我們防禦這場災難。
Yampolskiy表示,建立AIS的標準框架一直是提出安全機制,但通過網絡安全轉移觀念的視角來研究問題。
他說,列出可能出錯的東西將使測試他們最終在需要時使用的保障措施變得更加容易。
可以開發惡性AI系統的團體
1。軍隊
研究人員說,軍方可以創建網絡武器和機器人士兵以實現優勢。
2。政府
儘管看起來像軍隊和政府一樣,但研究人員說,政府可以使用惡毒的AI來建立霸權或一個國家的統治地位,以控制人民,並摧毀其他政府。
3。公司
甚至公司也可以將AI系統用於偏差計劃。研究人員說,公司可以利用它們來實現壟斷並通過非法手段破壞競爭。
4。世界末日邪教
5。黑帽子黑客
你看過金球獎獲獎嗎機器人先生?可以說,角色是黑帽子黑客,如果像他們這樣的團體可以破壞系統並建立更惡意的AI,那麼世界將會陷入混亂。
6。惡棍和罪犯
該報告的作者解釋說,沒有監督的代碼是創建有害的AI而不先警告世界的一種方式。
更重要的是,惡意AI可以通過利用公司傾向於提高其利潤和生產力的趨勢來削弱人工勞動。兩人說,AI可以將其服務用於公司的服務,以代替“昂貴且效率低下的人類勞動力”。
AI系統還能做什麼?通過政變接管政府,通過資金接管立法機構,或通過新設計的病原體或現有的核庫存來消滅人類。但是,作為流行科學推桿這是人類已經完成數百次已經做的最糟糕的事情。
這些恐懼是合法的嗎?
並非每個人都同意簡短的細節紙。倫敦大學的馬克·畢曉普(Mark Bishop)認為,這種恐懼被誇大了。
百度首席科學家安德魯·恩格(Andrew Ng)將擔心殺手機器人的擔憂與擔心火星人口過多進行了比較。
不過,Yampolskiy並不容易灰心。他引用了一個微軟的實例Twitter Chatbot Tay最近流氓,發表了種族主義評論。他說,該事件揭示了AI系統的波動。
“我希望看到突然轉向這不僅是我們提出解決方案的領域,”說Yampolskiy“我想要這個相互作用,您在這裡提出了一種安全機制,但也要問:我們可以打破它嗎?”
照片:Alex Bogdano |Flickr