人形機器人索菲亞在 CES 期間成為美國媒體的頭條新聞。除了一些值得注意的例外,他在採訪中得到了強調,在編輯過程中他的猶豫和沈默都被消除了。這顯示人與機器之間可以進行流暢的對話。這足以激怒Facebook人工智慧研究部門FAIR的主管Yann LeCun。著名專家徹底譴責示威活動« 胡說八道 »在社群網路上。
索菲亞背後的(人類)木偶師還有更多廢話。
如果他們沒有透露……許多評論會很有趣。https://t.co/izvyMGLV8p
— Yann LeCun (@ylecun)2018 年 1 月 17 日
「這助長了圍繞人工智慧的危險討論,並讓公眾和媒體對人工智慧的最新技術產生了完全不切實際的期望。這是不誠實且具有破壞性的”他還寫道。
展望認知科學
在巴黎參加幾次向公眾開放的會議時,他回顧了人工智慧的最新技術水平。在他看來,我們距離與人類平等還很遠。“最好的人工智慧系統的常識還不如老鼠”他突然宣布立即終止電影《她》中主角愛上誘人人工智慧的幻想。
機器仍然遠低於我們的生物能力。“人類和動物建立預測模型,使他們能夠通過觀察和互動以及很少的例子來學習,而無需做太多愚蠢的事情”。因此,人不需要開車撞上梧桐樹或從懸崖上掉下來才能明白這是危險的:他事先就知道會發生什麼事。
相反,人工智慧系統需要大量的訓練,例如Google的 AlphaGo,它擊敗了最好的圍棋冠軍,這就是 Facebook 超越數學並與 ENS 心理語言學專家 Emmanuel Dupoux 等研究人員合作的原因。
後者主要研究人類學習能力以推導認知模型。嬰兒很快就能學會物體的方向、位置或持久性的概念。「常識代表了在生命的最初時刻很快就獲得的大量知識。如果我們能讓機器如此快速地學習這些方法,我們將在人工智慧方面取得巨大進步。”,Yann LeCun 補充道。
除了透過對話之外與人工智慧進行交流
Antoine Bordes 也持同樣的實用主義態度,他是巴黎 FAIR 實驗室的負責人,也是 Facebook M 的架構師之一,該實驗旨在將個人助理整合到 Facebook Messenger 中。
該機器人必須能夠回答網路使用者用自然語言提出的問題。“我們從人們理想的需求出發。我們以為我們能夠自動化更多任務,但結果比預期更複雜,因為所表達的需求是無限的且非常個性化”,Antoine Bordes 簡單地給我們解釋了一下。
Facebook 研究人員也密切觀察了對話代理。他們的觀察很清楚。與機器人進行持續超過兩分鐘的有趣對話是不可能的。這些模型設法用“早安 !你好嗎 ?»甚至可以透過讓你回到你最喜歡的運動來人為地延長它,但一旦對話的過程變得獨特,你就無法做出反應。「人有能力從公雞跳到驢,建立連結。該模型將會丟失,因為它會不斷發現自己遇到從未遇到過的問題”,Antoine Bordes 進一步詳細介紹。
如果對話挑戰還沒準備好解決,這並不一定會阻礙語音助理的發展。對於FAIR團隊來說,網路使用者已經習慣了與搜尋引擎交互,並且知道如何選擇正確的關鍵字來發起查詢。這不一定是與機器人互動的問題,而是與機器人互動的問題,而是開發有效的溝通模式以完成有用任務的問題。就像說“客廳燈!” » 發送給您的智慧揚聲器,而不是“請您打開客廳的燈好嗎?” 」。未來,其用途的可能發展至今仍無人懷疑。
結合不同的方法
作為深度學習領域的先驅,深度學習包括教授人工神經網路執行某些任務,Yann LeCun 似乎已經轉向其他領域。
意識到這種深度學習的局限性,他現在正在尋求進一步推進人工智慧。有許多途徑,例如嘗試新的神經網路結構或最佳化數學方法。
但對他來說,關鍵似乎在於他所說的“微分編程”其他人也稱之為混合神經符號學習系統。這涉及到不同方法的結合:深度學習和記憶,甚至無監督強化學習和程式設計、動態和靜態。「也許有些任務是學不來的。因此,人們對將可以學習的部分與編碼或儲存在記憶體中的其他部分混合起來感興趣。安托萬·博德斯啟發了我們。
Yann LeCun 希望人工智慧在未來幾年能夠以這種方式取得重大進展。如果情況並非如此,他擔心這個自 20 世紀 50 年代以來經歷了許多起起落落的學科將迎來新的冬天。“賭的是人們是否會繼續相信它,而結果仍然不符合他們的夢想”,他問自己。