“最好的人工智慧系統的常識還不如老鼠,”Yann LeCun 去年一月宣布在訪問巴黎期間。
對Facebook人工智慧研究負責人來說,機器距離與人類匹敵還很遠。為了在這一領域取得進展,這家高科技巨頭的 FAIR 實驗室正在採取多種途徑,大量借鑒人類學習模型,這些模型從出生起就基於互動和對環境的觀察。
正是在這樣的背景下,由 Douwe Kiela 和 Jason Weston 領導的一個小團隊產生了啟動該專案的非常規想法“邊走邊聊”由兩名特工(人工智慧)組成,一名扮演在紐約迷路的遊客,另一名則充當導遊。最終目標是透過每個具有不同元素的方式到達精確的目的地:帶有網格的360 度城市視圖,使遊客可以輕鬆發現十字路口,以及帶有“酒店”或“餐廳”等通用地標的簡單2D 地圖」作為指南。每個人都無法向對方展示他所看到的。
結果比人類好
第一個結果表明,透過訓練它們在非常現實的情況下而不是在模擬的宇宙中進行對話、行動和感知,這些電腦程式最終會更容易找到自己的方式。因為每個人都有義務向對方描述他所看到的東西,一個是其位置,另一個是為了到達最終目的地而經過的地方。
不過,請注意不要被誤解。如果兩個程式收集並理解用自然語言表達的大量元素,它們就可以用合成語言相互溝通。所有結果均優於人類進行相同測試所獲得的結果!
Facebook 研究人員為此開發了一種名為 MASC(空間卷積掩模注意力)的機制,該機制允許代理使用的語言模型快速分析回應中的關鍵字。它的使用將使實驗的精度提高一倍。
請注意,每次體驗在導遊預測遊客到達時結束。如果正確的話,這一集就被認為是成功的。行動或通訊的次數沒有限制。
Facebook 毫無疑問是在吹噓,它更願意將這項實驗視為基礎研究的一個階段,提出的問題多於提供的答案。“我們的最終目標是透過自然語言互動實現高水準的綜合性能,並邀請社區也這樣做。”,我們可以在 FAIR 部落格文章中閱讀。
為了鼓勵其他科學家加入該項目,Facebook 立即發布了其「Talk the Walk」資料集,這是第一個基於行動和感知的大規模對話資料集。我們不遺餘力地希望有一天我們的智慧助理能真正理解人類告訴他們的內容。那時,也只有那時,他們才能真正幫助我們。
來源 :
Facebook