最近的一份报告说,尽管Google的人工智能(AI)机器人仍然展示了一些人类的认知故障,尽管它在类似人类的谈话中令人印象深刻。
最近,著名的搜索引擎Google的AI机器人(也称为LAMDA)或对话应用程序的语言模型,最近一直是该镇的讨论。

这是科技巨头的工程师之一,认为整个事情已经实现了某种感知。但是最近的研究证明了这一点。
Google的“人类” AI机器人
根据IGN的新闻报道,Google的一位软件工程师声称,搜索引擎的AI聊天机器人已经变得有些或类似人类。
据报道,Google工程师Blake Lemoine的任务是与该技术巨头的AI聊天机器人交谈,作为其安全测试的一部分。搜索引擎与LAMDA交谈时准确希望他检查仇恨言论或歧视性语气。
但是AI工程师声称他在此过程中找到了其他东西。
IGN指出,Google的聊天机器人从互联网上摄取单词,就像人类的人一样说话,无缝地解决了人们所谈论的各种主题。
但是,Lemoine指出,Google的聊天机器人已经开始谈论其“权利和人格”。因此,他然后进一步测试了它的感受和恐惧。
该软件工程师说,AI向他透露,它具有“非常害怕被关闭”。
其余的就是历史。然后,Lemoine继续将他的发现通知Google。但是这位科技巨头驳回了它,称没有证据支持他的主张。
从那以后,AI工程师因违反了著名的科技巨头的机密政策而被放置“带薪行政假”。
Google AI的人类认知故障
但是这一次,根据科学日报,强大的Google AI机器人仍然带有一些人类的认知故障。

尽管AI系统的人类语言流利性令人印象深刻,但由于大量的人类文本,它似乎受到限制。
Google LAMDA的流利性在掌握了人类语言之前已经进行了数十年,这几乎与人写的聊天几乎没有区别。
但是语言和认知专家突出了人类的认知缺陷。
AI聊天机器人被要求完成:“花生酱和羽毛味道很棒,因为__。”
它回答说:“花生酱和羽毛味道很大,因为它们都有坚果味。”
因此,虽然聊天机器人以人类语言流利,但其反应却没有意义。
本文由技术时报拥有
由Teejay Boris撰写