儘管深度神經網路(DNP)近年來取得了巨大進步,但它們距離人類某些智力能力(例如學習和掌握語言)還很遠。「對一個孩子來說,幾百萬句話就足以掌握一門語言。深度神經網路需要更多的數據才能實現同樣的目標”Meta FAIR 實驗室研究員 Jean-Rémi King 強調。
為了了解為什麼大腦在學習和使用語言方面如此高效,Meta 研究人員正在與 NeuroSpin CEA 和 Inria 的研究人員聯手進行長期研究計畫。他們的想法是比較人類大腦和 RNP 在閱讀或聽到相同句子時的功能。
面向演算法層的大腦區域
根據普林斯頓大學和馬克斯普朗克研究所的數據——腦磁圖和功能性磁振造影——他們已經觀察到了一個驚人的事實:人腦的功能與 RNP 的功能非常相似。
「大腦分階段處理語言訊息。他將識別聲音序列中的音素,然後將它們組合成語素,然後形成單詞,以創造意義。這種處理層次結構可以在圖像中看到,並且已經研究了幾十年。就其本身而言,RNP 是分層工作的,並且可以分析每個層中的活動。我們的目標是將這兩個操作關聯起來並測量差異,”讓-雷米·金向我們解釋。
結果:這兩種類型的分層處理之間確實存在相關性,當 RNP 能夠預測接下來讀取或聽到的單字時,這種相關性變得更強。 “RNP 的關鍵變數是根據過去預測未來的能力。因此,我們必須朝這個方向繼續研究。»,研究人員強調。這種預測能力還是非常有限的。 RNP 充其量只能預測幾個字。另一方面,人類大腦將能夠在一個全新的層面上工作,預測整個段落或想法的流動。
研究人員將繼續探索這一研究途徑。下一步是由 NeuroSpin 創建一組神經元圖像,研究人員將能夠依靠這些圖像來深化他們的分析。我們的目標是雙重的:了解使人腦如此高效的學習原理,並利用這種理解來改進 RNP。
來源:元