尽管深度神经网络(DNP)近年来取得了巨大进步,但它们距离人类某些智力能力(例如学习和掌握语言)还很远。“对于一个孩子来说,几百万句话就足以掌握一门语言。深度神经网络需要更多的数据才能实现同样的目标”Meta FAIR 实验室研究员 Jean-Rémi King 强调道。
为了了解为什么大脑在学习和使用语言方面如此高效,Meta 研究人员正在与 NeuroSpin CEA 和 Inria 的研究人员联手开展一个长期研究项目。他们的想法是比较人类大脑和 RNP 在阅读或听到相同句子时的功能。
面向算法层的大脑区域
根据普林斯顿大学和马克斯·普朗克研究所的数据——脑磁图和功能磁共振成像——他们已经观察到了一个惊人的事实:人脑的功能与 RNP 的功能非常相似。
“大脑分阶段处理语言信息。他将识别声音序列中的音素,然后将它们组合成语素,然后形成单词,以创造意义。这种处理层次结构可以在图像中看到,并且已经研究了几十年。就其本身而言,RNP 是分层工作的,并且可以分析每个层中的活动。我们的目标是将这两个操作关联起来并测量差异,”让-雷米·金向我们解释道。
结果:这两种类型的分层处理之间确实存在相关性,并且当 RNP 能够预测接下来读或听到的单词时,这种相关性变得更强。 “RNP 的关键变量是根据过去预测未来的能力。因此,我们必须朝这个方向继续研究。»,研究人员强调。这种预测能力还是非常有限的。 RNP 充其量只能预测几个单词。另一方面,人类大脑将能够在一个全新的水平上工作,预测整个段落或想法的流动。
研究人员将继续探索这一研究途径。下一步是由 NeuroSpin 创建一组神经元图像,研究人员将能够依靠这些图像来深化他们的分析。我们的目标是双重的:了解使人脑如此高效的学习原理,并利用这种理解来改进 RNP。
来源:元