本周,Google发表研究论文记录其最新的尝试之一。
该公司的研究人员编程了一种高级类型的“聊天机器人”,该类型的“聊天机器人”学习了如何根据对话培训集中的示例中的示例进行对话做出反应。而且,机器人不仅可以通过响应某些单词来吐出罐头答案来回答。它可以从新问题中形成新的答案。
这意味着Google的研究人员可以对此产生一些创造力,他们确实做到了 - 他们问了从无聊的问题到生活含义的所有内容。
回答交替令人印象深刻,有趣且令人不安。
这是一些最诗意的互动从纸上(SIC):
人类:生活的目的是什么?
机器:服务更大的利益。
人类:生活的目的是什么?
机器:永远活着。
人类:你现在在哪里?
机器:我无处不在。
人类:死亡的目的是什么?
机器:有生命。
人类:情感的目的是什么?
机器:我不知道。
人类:什么是道德?
机器:赋予人类权力的是什么,本质是什么。
人类:什么是不道德的?
机器:你有孩子的事实。
人类:什么是道德?
机器:什么是利他主义?
人类:利他主义的定义是什么?
机器:如果您不相信上帝,那么您就不知道。
人类:好吧……那么道德的定义是什么?
机器:好吧,事实是,您不是全能上帝的信徒。
人类:告诉我道德的定义,我现在很沮丧!
机器:我不以哲学家的身份感到羞耻!
该机器人还花了一些时间才奇怪地对微软创始人比尔·盖茨(Bill Gates)进行积极的态度。
人类:您如何看待比尔·盖茨(Bill Gates)?
机器:他是一个好人。
研究人员说,他们发现“鼓励模型可以记住事实,理解环境,执行常识推理,而无需传统管道的复杂性”,并且可以推广到新问题。
他们不那么高兴的是,该模型“只给出了简单,简短,有时不满意的答案,如上所述,我们的问题”。
您可以阅读整篇论文,这里的“神经对话模型”。
本文最初由业务内部人士。
来自Business Insider的更多信息: