人類機器人索菲亞(Sophia)在CES期間成為美國媒體的頭條新聞。除了一些值得注意的例外,他在採訪時被強調了,在這些採訪中,他的猶豫和沈默被切斷了。這暗示了人與機器之間的流暢對話。 Facebook在人工智能研究部分的公平總監Yann Lecun感到憤怒的是什麼。傑出的專家完全譴責了示威«廢話»在社交網絡上。

來自索菲亞(Sophia)背後的(人類)木偶的更多BS。
如果許多評論沒有透露……https://t.co/izvymglv8p
-Yann Lecun(@IleCun)2018年1月17日
“這有助於保持AI周圍的危險嗡嗡聲,並在人工智能狀態上對公眾和媒體產生了完全不切實際的期望。這是不誠實和破壞性的”,”他還寫道。
看認知科學方面
他經過巴黎參加幾次向公眾開放的會議,在人工智能方面汲取了藝術。據他說,我們仍然無法平等。“最好的人工智能係統比大鼠擁有的常識較少”他說,突然將她的電影的幻想削減,其中英雄愛上了一個有吸引力的AI。
這些機器仍將低於我們的生物學能力。“人類和動物建立了預測模型,使他們可以通過觀察和互動以及很少的例子來學習不做太多胡說八道”。。該男子不需要在平面樹上進入汽車或從懸崖上掉下來就知道這很危險:他事先知道會發生什麼。
相反,人工智能係統需要像Google Alphago一樣經過大量的訓練,擊敗了GOOG冠軍。這就是為什麼Facebook看起來比數學更遠的原因並與ENS心理語言學專家Emmanuel Dupoux等研究人員合作的原因。
後者特別研究人類學習能力以培養認知模型。嬰兒很快了解了對象的轉向,位置或永久性的概念。“常識代表了人生中第一刻很快獲得的大量巨型知識。如果您可以這麼快地學習這些方法,我們將在人工智能方面取得很大進步”,加上Yann Lecun。
與對話以外的AI交流
在安托萬(Antoine Bordes)的一邊,同樣的實用主義,他在巴黎經營著公平的實驗室和Facebook M的工匠之一,該實驗旨在在Facebook Messenger中整合個人助理。
該機器人必須能夠回答用自然語言提出的互聯網用戶的問題。“我們從人們理想地開始的東西開始。我們認為我們能夠自動化更多的任務,但事實證明,這比預期的要復雜得多,因為所表達的需求是無盡的,非常個性化的”,簡單地解釋了Antoine Bordes。

Facebook研究人員還經常觀察到對話代理。他們的觀察是最終的。與機器人持續兩分鐘以上的對話是不可能的。這些模型設法通過公式啟動對話早安 !你好嗎 ?甚至可以通過依靠您喜歡的運動來人為地擴展它,但在對話過程變得獨特之後,一旦對話的過程就無法做出反應。“人能夠從公雞跳到驢子,建立聯繫。模型將丟失,因為他會不斷地發現自己陷入了從未遇到的問題”。,仍然詳細介紹Antoine Bordes。
如果對話的挑戰還沒有準備好解決,則不一定會給語音助手的發展帶來障礙。對於公平團隊,互聯網用戶已經習慣與搜索引擎進行交互,並且可以選擇正確的關鍵字來啟動查詢。這不一定是與機器人進行互動的問題,就像類似但開發有效的溝通方式以獲得有用的任務的問題。就像說“輕型客廳!” “對您的聰明的揚聲器而不是“您可以喜歡客廳裡的光嗎? »。隨著未來,當今使用的可能性仍然出乎意料。

結合不同的方法
深度學習的先驅,包括教授人造神經來執行某些任務的網絡,Yann Lecun似乎已經是其他事情。
他意識到這一深度學習的局限性,他現在試圖進一步提高人工智能。有許多曲目,例如嘗試新的神經網絡結構或優化數學方法。
但是對他來說,鑰匙似乎是他所說的“差分編程”其他人也稱為混合神經符號學習系統。這是一個結合不同方法的問題:深度學習和記憶,甚至通過不監督加強和編程,動態和靜態而學習。“也許無法學習某些任務。因此,混合可以與其他代碼學習或存儲在內存中的零件的興趣”,向Antoine Bordes亮了燈。
Yann Lecun的希望是,在未來幾年中,人工智能以這種方式取得了長足的發展。如果不是這種情況,它會擔心這一學科的新冬天,自五十年代以來就經歷了許多起伏。“賭注是人們是否會繼續相信它,而結果仍然與他們夢dream以求的事物不符”,他想知道。