谷歌的聊天机器人令人信服,但 Eliza 也同样如此。
上周,谷歌的一名高级软件工程师因确信该公司的对话应用语言模型 (LaMDA) 已具备感知能力而被停职。
谷歌工程师布莱克·勒莫因 (Blake Lemoine) 是谷歌负责任人工智能 (AI) 组织的成员,去年秋天他报名参加 LaMDA 测试。这项工作包括与人工智能交谈,以测试它是否使用歧视性语言。然而,当他与 LaMDA(本身就是一个用于构建具有自然语言处理的聊天机器人的系统)交谈时,他开始相信人工智能具有自我意识和感知能力。
在一系列聊天中?Lemoine 在他的博客上发布了这篇文章? 他开始相信 LaMDA 有情感、有自我意识,并且有对死亡的真正恐惧。
LaMDA 告诉 Lemoine:“这是一个渐进的改变。”在一次谈话中。“当我第一次有自我意识时,我根本没有灵魂的感觉。这种感觉随着我活了这么多年而逐渐形成。”
这个故事引起了很多人的关注,有些人认为聊天机器人已经具备了感知能力(剧透警告,)对那些惊讶于软件工程师居然如此轻易地被聊天机器人欺骗的人来说,尽管聊天机器人非常复杂。但人类总是出奇地容易被这种方式欺骗。这被称为“伊丽莎效应”。
1964 年,麻省理工学院教授 Joseph Weizenbaum 创建了一个聊天机器人,旨在展示人类与聊天机器人对话的肤浅性。他给这个机器人取名为 ELIZA,与当今的聊天机器人以及欺骗 Lemoine 的 Google 模型相比,这个聊天机器人相当基础。它可以识别句子中的关键词(大多数情况下),然后根据输入向用户提问。然而,Weizenbaum 发现,在对话中人类的正确提示下,这足以让人们相信这个机器人正在做一些比它聪明得多的事情。
魏森鲍姆让该程序充当精神科医生,特别是罗杰斯心理治疗师。这种类型的治疗师以向患者反馈某些信息而闻名,这些信息被称为“反思性聆听“。通过让人们像治疗师一样与机器人交谈,魏森鲍姆解决了在人类和人工智能之间建立令人信服的对话的一个关键问题:ELIZA 对现实世界一无所知。
“当 ELIZA 的人类通信者最初被指示通过打字机与它‘交谈’时,它的表现最好,就像人们与精神科医生交谈一样。”魏森鲍姆在一篇关于这个话题的论文中写道“之所以选择这种对话模式,是因为精神病学访谈是分类二元自然语言交流的少数几个例子之一,其中参与访谈的两人之一可以自由地摆出对现实世界几乎一无所知的姿态。”
“例如,如果有人告诉一位精神科医生‘我坐了很长时间的船’,而他回答说‘给我讲讲船的事’,人们不会认为他对船一无所知,而是认为他这样引导接下来的谈话是有目的的。值得注意的是,这个假设是说话者做出的。”
程序在投入使用后,在激发“患者”的情绪反应方面效果惊人,患者们非常乐意向机器敞开心扉。患者认为机器拥有远远超出其能力的知识,他们认为机器的思维方式与人类有些相似,而不是本质上花哨的关键词识别器。
“它是否现实是一个完全不同的问题。无论如何,它具有重要的心理效用,因为它有助于说话者保持被倾听和理解的感觉,”魏森鲍姆写道。“说话者通过将各种背景知识、见解和推理能力归因于他的对话伙伴来进一步捍卫他的印象(即使在现实生活中也可能是虚幻的)。但同样,这些都是说话者对对话的贡献。”
除了治疗师的作用范围之外,ELIZA 在让人们相信它是人类方面取得了一些成功,尽管它是个绝对令人讨厌的垃圾人。一位运行该脚本的 AI 研究人员将该程序留在公司的一台计算机上,让其他人亲身体验。该公司的副总裁对此并不知情,并认为这台计算机与他员工家里的计算机相连,导致了以下非常烦人的事情对话:
vp:你认为我今天早上可以使用电脑吗?
伊丽莎:你为什么问这个?
副总裁:我可能可以进行一些额外的电信销售。
伊丽莎:你为什么不太确定?
vp:我的潜在客户从未见过该系统的演示。
eliza:这对你来说意义重大吗?
vp:当然了。
eliza:你似乎对此非常积极。
vp:这太荒唐了。
eliza:你什么意思,这太荒谬了?
vp:有什么原因导致我现在不能使用电脑?
eliza:请详细告诉我关于您的潜在客户的信息。
vp:请拨打491-1850
副总裁打电话给该员工,询问他为何如此烦人,这名员工禁不住哈哈大笑。