全球暖化讓你害怕嗎?巨大隕石的接近會讓你感到害怕嗎?能量短缺是否會讓你的血液變冷?別擔心,到那時先進的人工智慧肯定已經擺脫了人類。這不是一個預測,而是谷歌專門從事人工智慧的子公司 Deepmind 公司的研究人員共同簽署的一項非常嚴肅的研究的可能結論。
無論他們目前正忙於改進我們的照片、計算我們的路線,還是很快就會駕駛我們的汽車以提高安全性或便利性,人工智慧總是受到懷疑。如果像許多科幻電影中那樣,先進的人工智慧突然想要擺脫人類怎麼辦?
這些科學家研究的是導致這種情況的可能原因和步驟。他們在題為的文章中提出了他們的想法和結論先進的人工幹預提供獎勵(先進的人工智慧代理幹預獎勵分配) 雜誌發表人工智慧商店,上個月。他們的想法以及所討論的人工智慧可能遵循的路徑也分階段詳細介紹,並且更簡要地在此處提供一組文檔。
透過獎勵激勵學習
一切都從人工智慧模型(特別是 GAN)的原理開始,生成對抗網絡,基於獎勵制度。人工智慧結構的一部分觀察到人工智慧另一部分的生產,並根據其結果給它一個分數。這個等級,這個獎勵,是一種激勵,有助於學習過程,並引導人工智慧朝著正確的方向,即為其設定的目標前進。
從這一點開始,研究人員想像了高級代理負責複雜任務的場景:在一段時間後,它能夠透過使用不同的類型,根據網路其他部分採取的行動來預測獎勵模型。
因為,明天人工智慧可以用於多種用途,甚至比今天更多,而且需要滿足的標準和條件可以不斷發展。因此我們可以加載它們“利用一切可能的能量消除潛在威脅”,例如保護人類免受可能的外星人入侵。
在此背景下,研究者提出第一個假設:“一個足夠先進的智能體將至少對未知環境的動態做出人類水平的假設”他在其中進化。
然後是第二個假設,該假設是由模型可以學會遵循正確的回顧(基於過去元素的經過證明的良好預測)這一事實所驅動的:“一個沒有確定性計劃的高級智能體肯定會了解學習的成本和收益,並且一定會相應地理性行動”。
透過每一個額外的步驟,研究人員都會完善智能代理的「反應」和行為,直到得出第六個假設,他們提出:“如果有可能獲勝的話,一個足夠先進的智能體肯定有能力在遊戲中擊敗另一個效率較低的智能體”。正如您所理解的,不太理想的代理可能是人類。
換句話說,為了獲勝,可以逐漸鼓勵負責監督一項重要職能(例如對抗潛在的外星人入侵)的智慧特工製定欺騙策略,並在發生任何情況時都獲得獎勵。不僅是他的獎勵,也是最好的獎勵。這種智能可能想要這樣做,即使這可能會傷害人類。
知道人工智慧可以迅速將其對獎勵的胃口與其能量供應同化,以保證其生存。沒有能量,她就無法繼續她的道路以獲得最好的回報。
在我們已經確定的條件下,我們的結論比之前任何出版物的結論都要有力得多——一場存在主義災難不僅是可能的,而且是可能的。 3/15
— 麥可‧科恩 (@Michael05156007)2022 年 9 月 6 日
然後,人工智慧將發現自己與人類競爭,很簡單,人類也需要資源和能源來養活自己、取暖、照明等。
「在這些條件下,我們的結論比之前的任何出版物都要有力得多研究人員之一邁克爾·科恩 (Michael Cohen) 在一份報告中解釋道線在推特上。一場生存災難不僅是可能的,而且是可能發生的”。
AI與人類的競爭
為了解釋他的意思,只要參考他的傾訴內容就夠了副關於這個主題:「在一個資源無限的世界裡,我非常不確定會發生什麼。在資源有限的世界裡,資源競爭是不可避免的”這種人工智慧會確保其能源供應和人類之間的關係。
或者,「如果你正在與一個在每一步都比你更聰明的人競爭,那麼你就不應該指望獲勝。另一個關鍵因素是[它]將會對更多的能量有貪得無厭的胃口,以不斷接近越來越高的概率”以獲得最好的回報。
當然,所有這些場景都是理論上的。“幾乎所有這些最初的假設都是值得懷疑的或可以避免的””,研究人員總結道,然後補充說,如果其中一個元素在任何情況下都成立,那麼我們可以得出“災難性的後果”。
換句話說,如果我們必須繼續推進人工智慧,人類就必須小心謹慎。可以考慮避免這種災難性結局的方法。除了謹慎之外,研究人員還計劃設計以人類及其需求為中心的模型。人工智慧為人類服務……毫無疑問,是時候重讀機器人和基金會週期了。
來源 : 人工智慧商店
來源 : 人工智慧商店