在巴黎 VivaTech 展會期間,嚴樂存負責Meta人工智慧的法國研究員公佈了一種新的AI模型「JEPA」(「聯合嵌入預測架構」)。
此型號適用於“克服當今最先進人工智慧系統的主要限制”,Meta 在新聞稿中解釋。在演示過程中,Yann LeCun 也強調了「JEPA」與其他模型的區別,例如 GPT,它運行基本的聊天GPTd'OpenAI。
「今天的人工智慧和機器學習真的很糟糕。人類有常識,但機器沒有”」Yann LeCun 宣稱。
研究者總是表現出自己非常關鍵關於市場上的語言模型。一月的時候,LeCun 就已經預估 ChatGPT離革命還很遠。對他來說,“ChatGPT 並不是特別創新”在技術層面上。
一種新型人工智慧模型
Meta 決心比競爭對手做得更好,因此提供了一個可以學習一些知識的 AI 模型就像人類的智慧一樣。因此,該系統的操作與 Google 的 GPT 或 PaLM2 等模型有很大不同。這些工作依賴一個巨大的資料庫。透過利用這些訊息,人工智慧模型試圖根據使用者的問題猜測最符合邏輯的單字順序。事實上,這些人工智慧並不理解它們所產生的文本。他們只是模擬思考。影像產生器,例如 DALL-E、Adobe Firefly 或中途,以同樣的方式工作。
新的 Meta 模型並非如此。 JEPA 沒有聚合大量人工創建的數據,而是比較抽象表徵影像或聲音。這種方法需要AI來設定“外部世界的內部模型”,這使他能夠更輕鬆地學習。
透過這種方式,該模型模仿了人腦的功能。每天,您的大腦都會無意識地分析大量數據,以了解周圍的世界。就像人類的智力一樣,該模型可以兼顧抽象概念而不是單字序列。
“我們的工作 [...] 是基於這樣一個事實:人類僅通過被動觀察就可以了解世界的大量基本知識”,元進步。
透過這種方法,模型真正理解委託給它的資料。人工智慧不會被迫根據最可能的單字序列來猜測使用者問題的答案。因此,從理論上講,“JEPA”不應產生“幻覺”,即產生事實上錯誤的訊息。這是生成式人工智慧的主要缺陷。他們的說法根本不可靠,因為他們並沒有真正理解自己在說什麼。這就是為什麼生成器很難設計某些元素,例如人的手或耳朵。
«如果你用 1 兆或 2 兆個 token 來訓練(一個模型),它似乎能夠理解。但他犯了愚蠢的錯誤,無論是事實還是邏輯»,Yann LeCun 強調。
此外,「JEPA」以其極高的效率在其他主要語言模型中脫穎而出。根據 Meta 的新聞稿,與 GPT 等要求更高的系統不同,人工智慧不需要大量資源即可運作。
生成式人工智慧的終結?
對於元,«生成方法過於專注於細節,而不是捕捉大局概念。就像他的新系統一樣。 Yann LeCun 認為,生成式人工智慧注定會消失,因為“我們會有更好的東西來取代他們”:
“寬語言模型今天仍然有用,但五年後我們將不再使用它們”。
從理論上講,該模型代表了在實現目標的道路上邁出了新的一步。通用人工智慧,OpenAI 和其他科技巨頭的偉大目標。這種類型的人工智慧距離當前技術還很遠,但它能夠進化並適應委託給它的任務,即使它沒有被編程來執行這些任務。
“生成模型已成為過去,我們將放棄它們而採用預測架構”,研究人員宣稱,榮獲2019年阿蘭圖靈獎。
一如既往,Meta 已將整個「JEPA」代碼提供給研究人員。這開源策略旨在透過鼓勵開發人員掌握這項技術來刺激人工智慧研究。門洛帕克集團已經透過先前的創新做到了這一點,例如音樂產生器,根據短文本生成音樂的人工智慧,或者LLaMA,大型語言模型元人工智慧。
來源 : 元