Meta剛剛推出了一種新的AI模型。與法國研究人員Yann Lecun監督的模型相比,與Chatgpt和其他人更接近人的大腦,旨在取代生成性AI ...
在巴黎巴黎客廳的旁觀Yann Lecun,在元中負責人工智能的法國研究人員,推出了一種新的AI模型“ JEPA”(“嵌入預測架構”)。
該模型旨在“克服當今最先進的AI系統的主要限制”,梅塔在新聞稿中說。在演講期間,Yann Lecun還保留了其他模型(例如GPT)的“ JEPA”chatgptd'openai。
“今天的AI和自動學習確實為零。人類在機器時具有常識,沒有Yann Lecun說。
研究人員一直表現出自己非常關鍵關於市場上的語言模型。一月份,萊肯已經考慮過遠非革命。對他來說,“ Chatgpt並不是特別創新”在技術層面。
一種新型的AI模型
決心比競爭對手做得更好,Meta提供了一個學會的AI模型以人類智慧的方式。因此,系統的功能與諸如GPT或Google的Palm2之類的模型的功能大不相同。這些通過依靠龐大的數據庫來運行。通過繪製此信息,AI的模型試圖根據用戶的問題猜測最合乎邏輯的單詞。實際上,這些AI不了解它們產生的文本。他們滿足於模擬反射。圖像發生器,例如Dall-E,Adobe Firefly或Midjourney,以相同的方式工作。
新的元模型並非如此。 “ JEPA”不是匯總人類創建的一系列數據,而是比較抽象表示圖像或聲音。這種方法迫使AI建立“外界的內部模型”,這使他可以更輕鬆地學習。
通過這種方式,該模型模仿了人腦的功能。每天,您的精神確實在不知不覺地分析了許多數據,以了解周圍的世界。像人類的智力一樣,模型可以兼顧抽象概念而不是用單詞。
“我們的工作[...]基於人類僅通過被動觀察它來學習有關世界的大量基本知識的事實”,元前進。
由於這種方法,該模型確實理解了託付給它的數據。 AI沒有被迫根據最可能的單詞猜測其用戶問題的答案。從理論上講,“ JEPA”不應“幻覺”,即產生事實錯誤的信息。這是生成AI的主要缺陷。他們的斷言遠非可靠,因為他們並不真正了解自己在說什麼。這就是為什麼發電機發現很難想像某些元素(例如人的手或耳朵)的原因。
«如果您訓練具有1,000或2000億個令牌的訓練(模型),它似乎有能力理解。但是他犯了愚蠢,事實或邏輯錯誤»,強調Yann Lecun。
此外,“ JEPA”與其他主要語言模型不同。根據Meta新聞稿,AI不需要重要的資源來運行,這與GPT這樣的美食系統不同。
生成AI的終結?
對於元,«生成方法過多地關注細節,而不是捕獲整體概念”,就像它的新系統一樣。根據Yann Lecun的說法,生成的AI也被要求消失,因為“我們將有更好的替換”:
“今天的大型語言模型仍然有用,但是在五年內,我們將不再使用它們”。
在紙上,該模型代表了通往道路的新步驟通用人工智能,Openai和其他技術巨人的主要目標。這種類型的AI遠離當前技術,即使沒有對其進行編程以執行它們,也能夠發展並適應委託其的任務。
“生成模型屬於過去,我們將放棄它們的預測架構”,研究人員宣布2019年獲得艾倫·圖靈獎。
忠實於她的習慣,Meta將整個“ JEPA”代碼提供給了研究人員。這開源策略旨在通過鼓勵開發人員適當該技術來刺激AI研究。 Menlo Park集團已經以這種方式進行了以前的創新,因為Musicgen,根據簡短文字生成音樂的AI或駱駝,倒大型語言模型meta ai。
來源 : 元