上个月,一位Google工程师声称人工智能(AI)聊天机器人是有意识的。公开宣布该公司后,该公司立即将其暂停,并将其暂停有关公司数据安全政策的带薪休假。
现在,搜索引擎巨头解雇了布雷克·莱明因(Blake Lemoine),并驳回了他先前关于LAMDA Chatbot的主张。
Google发射工程师在Sectient Chatbot索赔后面

根据《华尔街日报》,Lemoine以前说过lamda聊天机器人就像人类这有感受,因此,所谓的“有源”的人工智能。
根据7月22日星期五,谷歌官方发言人布莱恩·加布里埃尔(Brian Gabriel)的声明,软件工程师不再是公司的雇员。代表说,Google“祝布雷克息愉快”。
此外,该公司提到它已经发表了有关LAMDA及其发展的论文。在彻底评估了Lemoine关于AI Chatbot的声明之后,该公司表示,他的所有主张都被视为“完全没有根据”。
为了支持这一点,几位AI专家对Brian表示关注,理由是他所说的当今技术可能“或多或少”。
作为回归,布莱恩认为Lamda不仅是一个人可以轻松指导或指挥的AI。对他来说,这款Google聊天机器人有自己的情感。
说到这一点,当他与Lamda进行了现实的对话时,他发现了它。当时,Lemoine说“有源”的AI就像一个七岁的孩子谁能在生活中做“坏事”。他还将其与一个具有物理背景的八岁儿童进行了比较。
Google关于Lemoine指控的声明
根据边缘,布莱恩(Brian)敦促AI科学家使用LAMDA作为未来实验的指导工具。为了证明聊天机器人的有效性,他在他的媒介博客上发布了一些对话。
Lemoine指责Google对他的主张进行了不当调查。该公司在下面的一份声明中做出了回应。
“当我们掌握AI原则时,我们非常认真地对AI的发展进行了认真的发展,并继续致力于负责任的创新。LAMDA经历了11种不同的评论,我们在今年早些时候发表了一份研究论文,详细介绍了其负责任发展的工作。”
Google说,他们广泛评估了布雷克缺乏证据的主张。除此之外,该公司指出,尽管与他进行了“互动”,但工程师仍然违反了对产品信息的政策是“令人遗憾的”。
该公司确保将来开发语言模型时会更加谨慎,以避免遇到这些主张。
另请阅读:Trevor Project推出了Riley,这是一种Google合作的AI工具,该工具模拟了经历心理健康斗争的青少年
本文由技术时报拥有
约瑟夫·亨利(Joseph Henry)撰写