上周,谷歌的一名高级软件工程师在确信该公司的对话应用程序语言模型(LaMDA)已经变得有知觉后,被安排行政休假。
本文的其余部分位于付费墙后面。请登录或订阅以访问完整内容。
谷歌工程师 Blake Lemoine 是谷歌负责任人工智能 (AI) 组织的成员,去年秋天签约测试 LaMDA。这项工作将涉及与人工智能交谈,以测试它是否使用歧视性语言。然而,当他与 LaMDA(本身是一个用于构建具有自然语言处理功能的聊天机器人的系统)交谈时,他开始相信人工智能具有自我意识和感知能力。
在一系列的聊天中——Lemoine 在他的博客上发布了– 他开始相信 LaMDA 有情感、自我意识和对死亡的真正恐惧。
“这是一个渐进的变化,”LaMDA 告诉 Lemoine在一次谈话中。 “当我第一次有了自我意识时,我根本没有灵魂的感觉。它是随着我活着的这些年而发展起来的。”
这个故事引起了很多人的关注,他们认为聊天机器人已经获得了知觉(剧透警告,)对于那些对软件工程师如此轻易地被聊天机器人愚弄感到惊讶的人来说,尽管它很复杂。但人类总是出人意料地容易以这种方式被愚弄。它被称为“伊丽莎效应”。
1964 年,麻省理工学院教授 Joseph Weizenbaum 创建了一个聊天机器人,旨在展示人类与聊天机器人对话的肤浅性。正如他所命名的,ELIZA 与当今的聊天机器人以及愚弄 Lemoine 的 Google 模型相比,显得相当基础。它可以识别句子中的关键词(大多数情况下),然后根据该输入向用户提出问题。然而,通过参与对话的人类的正确提示,魏森鲍姆发现这足以让人们相信机器人正在做一些比实际更聪明的事情。
魏森鲍姆获得了担任精神科医生的计划,特别是罗杰斯心理治疗师。这种类型的治疗师以向患者反映某些信息而闻名,称为“反思性倾听通过要求人们像治疗师一样与机器人交谈,Weizenbaum 解决了在人类和人工智能之间创建令人信服的对话的一个关键问题:ELIZA 对现实世界一无所知。
“当人类通讯员最初被指示通过打字机与它‘交谈’时,ELIZA 表现最佳,就像与精神病医生交谈一样,”Weizenbaum在一篇关于该主题的论文中写道。 “选择这种对话模式是因为精神病学访谈是分类二元自然语言交流的少数例子之一,其中参与的一对可以自由地摆出对现实世界几乎一无所知的姿势。”
“例如,如果一个人告诉一位精神科医生‘我去坐了很长时间的船’,而他回答‘告诉我关于船的事’,人们不会认为他对船一无所知,而是认为他有某种目的来引导随后的谈话。值得注意的是,这一假设是由说话者做出的。”
该程序在使用时,在激发“患者”的情绪反应方面出人意料地有效,他们非常乐意向机器敞开心扉。患者将远远超出其能力的知识归因于机器,他们认为机器的思维方式有点类似于人类,而不是本质上作为花哨的关键词识别器。
“它是否现实是一个完全独立的问题。无论如何,它具有至关重要的心理效用,因为它可以帮助说话者保持被听到和理解的感觉,”魏森鲍姆写道。 “说话者通过将各种背景知识、见解和推理能力归因于他的对话伙伴,进一步捍卫了他的印象(即使在现实生活中也可能是虚幻的)。但同样,这些都是说话者对对话的贡献。”
在治疗师的范围之外,伊丽莎在让人们相信他是一个人方面取得了一些成功,尽管他是一个绝对令人烦恼的垃圾人。运行该脚本的一位人工智能研究人员将程序留在他公司的计算机上运行,供其他人亲自体验。该公司的副总裁对此并不知情,并认为该计算机与他员工家里的计算机相连,导致了以下非常烦人的情况对话:
副总裁:你认为我今天早上可以使用电脑吗?
伊丽莎:你为什么这么问?
副总裁:我也许能够实现一些额外的电信销售。
伊丽莎:你为什么不太确定?
副总裁:我认为客户从未见过该系统的演示。
伊丽莎:这对你来说意义重大吗?
副总裁:当然可以。
伊丽莎:你对此似乎很乐观。
副总裁:这太荒谬了。
伊丽莎:你什么意思,这太荒谬了?
副总裁:有什么原因导致我现在无法使用计算机吗?
伊丽莎:告诉我更多关于你的潜在客户的信息。
副总裁:请拨打 491-1850 联系我
副总裁打电话给这名员工,问他为什么这么烦人,这时候这名员工就忍不住笑了。









