啊,媒體。從定義上講,社會的看門狗。但是有時候事情會變得有些糟糕,尤其是在處理複雜的下一級別的東西時。
報告最近有報導說Facebook的AI聊天機器人實驗產生了一個看似出色的發展:它創造了一種人類無法理解的語言。新聞媒體立即報導說,Facebook驚慌失措並關閉了整個計劃,這意味著人工智能終於趕上了我們,並將使我們最終喪失,一勞永逸地佔領了世界。機器,機器,機器。他們終於贏了!
除了他們沒有。甚至沒有遙遠的距離。
Facebook的聊天機器人實驗
Facebook擁有這些所謂的聊天機器人。他們生活在Messenger內部充當“助手”,而且看起來比典型的虛擬助手更容易接近,因為他們對查詢的反應方式使它感覺就像人類實際上在另一端一樣。結果,互動的效果與與朋友的典型聊天一樣。
例如,如果您通過Messenger詢問,《紐約時報》聊天機器人會告訴您最新消息。還有一個用於遊戲的聊天機器人,您可以購買東西,另一種可以顯示飛行詳細信息。列表還在繼續,但是您明白了。
當然,這聽起來幾乎是創新的,但是Facebook並沒有止步於此。為了進一步推動信封,Facebook在6月報導說,它正在嘗試教聊天機器人如何談判有很多原因,其中一個是,其中一個是如果聊天機器人學習如何進行談判,它可以幫助用戶獲得最佳的交易,或者至少可以使他們聽起來更自然。當然,這有點令人毛骨悚然,但也很簡單。
Facebook AI聊天機器人:到底發生了什麼
因此,一些機器人Facebook試驗了有線作品的生產,亂七八糟的句子報告。這些句子充其量是膽小的 - 毫無意義的,毫不奇怪,當然也不是令人擔憂的原因。在Facebook研究實驗室“驚慌失措”中沒有人關閉整個事情。
然而,媒體對整個事情的“恐懼”元素進行了磨練,儘管實際上沒有。然而,圍繞AI的主題的報導通常屬於這個陷阱,因為該主題非常複雜,並且一旦AI達到了重要水平的功能水平,對世界最終將如何處理戰爭,刑事司法和許多其他現象產生各種影響。
但是為了全面披露,這是真正發生的事情:如上所述,研究人員試圖開發可以與人類進行談判的AI。實驗室始於一場小型遊戲,其中要求兩名玩家在他們之間劃分對象。
Facebook的技術紙解釋了這是如何工作的,但是為了簡潔起見,機器人基本上是與談判語言有關的對話。然後,他們被允許使用反複試驗 - 更謹慎地稱呼強化學習- 實際進行談判。但是,當兩個機器人都使用強化學習時,他們就散發出了不可察覺的句子。它仍然是英語,但破碎而胡說八道。
正如Facebook在本文中所述,“我們發現更新兩個代理的參數導致與人類語言的分歧。”
Gibberish語言正是導致AI如何學到自己的語言的頭條新聞,並且處於對人類施加優勢的最初階段。
但是實際上,Facebook的不幸實際上證明了AI仍然是如何不發達的,因此可以說,報告總共有180個頭條新聞來表達了恐懼的頭條新聞。實際上,人工智能還遠在那兒。從外觀上看,Facebook自己的AI實驗與AI的當前局限性相呼應:它只能執行編程的操作。
“當前的盲目字面性機器學習正如《連線》最好的說法,系統會限制其實用性和力量。
這麼長的故事:AI很快就不會接管我們的世界。他們現在沒有秘密交流。 Facebook實驗室發生的事情更接近於AI不完美的線索,而不是機器總統治世界的最初提示。