人类机器人索菲亚(Sophia)在CES期间成为美国媒体的头条新闻。除了一些值得注意的例外,他在采访时被强调了,在这些采访中,他的犹豫和沉默被切断了。这暗示了人与机器之间的流畅对话。 Facebook在人工智能研究部分的公平总监Yann Lecun感到愤怒的是什么。杰出的专家完全谴责了示威«废话»在社交网络上。
来自索菲亚(Sophia)背后的(人类)木偶的更多BS。
如果许多评论没有透露……https://t.co/izvymglv8p
-Yann Lecun(@IleCun)2018年1月17日
“这有助于保持AI周围的危险嗡嗡声,并在人工智能状态上对公众和媒体产生了完全不切实际的期望。这是不诚实和破坏性的”,”他还写道。
看认知科学方面
他经过巴黎参加几次向公众开放的会议,在人工智能方面汲取了艺术。据他说,我们仍然无法平等。“最好的人工智能系统比大鼠拥有的常识较少”他说,突然将她的电影的幻想削减,其中英雄爱上了一个有吸引力的AI。
这些机器仍将低于我们的生物学能力。“人类和动物建立了预测模型,使他们可以通过观察和互动以及很少的例子来学习不做太多胡说八道”。。该男子不需要在平面树上进入汽车或从悬崖上掉下来就知道这很危险:他事先知道会发生什么。
相反,人工智能系统需要像Google Alphago一样经过大量的训练,击败了GOOG冠军。这就是为什么Facebook看起来比数学更远的原因并与ENS心理语言学专家Emmanuel Dupoux等研究人员合作的原因。
后者特别研究人类学习能力以培养认知模型。婴儿很快了解了对象的转向,位置或永久性的概念。“常识代表了人生中第一刻很快获得的大量巨型知识。如果您可以这么快地学习这些方法,我们将在人工智能方面取得很大进步”,加上Yann Lecun。
与对话以外的AI交流
在安托万(Antoine Bordes)的一边,同样的实用主义,他在巴黎经营着公平的实验室和Facebook M的工匠之一,该实验旨在在Facebook Messenger中整合个人助理。
该机器人必须能够回答用自然语言提出的互联网用户的问题。“我们从人们理想地开始的东西开始。我们认为我们能够自动化更多的任务,但事实证明,这比预期的要复杂得多,因为所表达的需求是无尽的,非常个性化的”,简单地解释了Antoine Bordes。
Facebook研究人员还经常观察到对话代理。他们的观察是最终的。与机器人持续两分钟以上的对话是不可能的。这些模型设法通过公式启动对话早上好 !你好吗 ?甚至可以通过依靠您喜欢的运动来人为地扩展它,但在对话过程变得独特之后,一旦对话的过程就无法做出反应。“人能够从公鸡跳到驴子,建立联系。模型将丢失,因为他会不断地发现自己陷入了从未遇到的问题”。,仍然详细介绍Antoine Bordes。
如果对话的挑战还没有准备好解决,则不一定会给语音助手的发展带来障碍。对于公平团队,互联网用户已经习惯与搜索引擎进行交互,并且可以选择正确的关键字来启动查询。这不一定是与机器人进行互动的问题,就像类似但开发有效的沟通方式以获得有用的任务的问题。就像说“轻型客厅!” “对您的聪明的扬声器而不是“您可以喜欢客厅里的光吗? »。随着未来,当今使用的可能性仍然出乎意料。
结合不同的方法
深度学习的先驱,包括教授人造神经来执行某些任务的网络,Yann Lecun似乎已经是其他事情。
他意识到这一深度学习的局限性,他现在试图进一步提高人工智能。有许多曲目,例如尝试新的神经网络结构或优化数学方法。
但是对他来说,钥匙似乎是他所说的“差分编程”其他人也称为混合神经符号学习系统。这是一个结合不同方法的问题:深度学习和记忆,甚至通过不监督加强和编程,动态和静态而学习。“也许无法学习某些任务。因此,混合可以与其他代码学习或存储在内存中的零件的兴趣”,向Antoine Bordes亮了灯。
Yann Lecun的希望是,在未来几年中,人工智能以这种方式取得了长足的发展。如果不是这种情况,它会担心这一学科的新冬天,自五十年代以来就经历了许多起伏。“赌注是人们是否会继续相信它,而结果仍然与他们梦dream以求的事物不符”,他想知道。