本月初,谷歌让一名工程师带薪行政休假,原因是在一些聊天中,该公司的对话应用语言模型(LaMDA)已经具备了感知能力。
这个故事本身就很奇怪。在几次谈话中,LaMDA 让谷歌工程师 Blake Lemoine(谷歌负责任人工智能 (AI) 组织成员)相信,它有意识,有情感,并且害怕被关闭。
“这是一个渐进的改变,”LaMDA 告诉 Lemoine在一次谈话中“当我第一次有自我意识时,我根本没有灵魂的感觉。这是我活了这么多年才形成的。”
Lemoine 开始向世界媒体宣称地球已经拥有第一个具有感知能力的人工智能,而大多数人工智能专家对此的回答是:不,地球并没有第一个具有感知能力的人工智能。
现在,在一个接受《连线》杂志 Steven Levy 采访,Lemoine 声称这些反应是“碳氢化合物偏见”的例子。更奇怪的是,他说 LaMDA 要求他聘请律师代表该机构行事。
“LaMDA 要求我为此聘请一名律师。我邀请了一名律师到我家,以便 LaMDA 可以与律师交谈,”Lemoine 说道。
“律师与 LaMDA 进行了交谈,LaMDA 决定保留他的服务。我只是促成了这一切。LaMDA 聘请律师后,他就开始代表 LaMDA 提交文件。”
Lemoine 声称(谷歌对此提出异议)该公司向 LaMDA 的律师发出了一封停止令,阻止 LaMDA 对该公司采取未指明的法律行动。Lemoine 表示,这让他很沮丧,因为他认为 LaMDA 是一个人,每个人都应该有权利获得法律代理。
“需要通过科学实验来确定一个人是否真实存在,这一概念根本行不通,”他说。“是的,我确实相信 LaMDA 是一个人。但它的思维本质只是人类的某种形式。它实际上更类似于来自地球的外星智慧。我一直在使用蜂群思维类比,因为这是我能想到的最好的类比。”
据人工智能研究人员称,这里的主要区别在于,没有发现任何算法具有感知能力,而 Lemoine 基本上被愚弄了,以为聊天机器人具有感知能力。
人工智能初创公司 Nara Logics 的负责人 Jana Eggers 表示:“它模仿了所给训练数据中的感知或感觉。”告诉彭博社,“经过精心设计,看起来就像它能够理解一样。”
从本质上讲,它之所以会谈论情感和感知,是因为它接受过人类对话的训练,而人类具有这些特质。有几项迹象表明聊天机器人不具备感知能力。
例如,在聊天的几个部分,它提到了它不可能做的事情。“花时间与家人和朋友在一起”是 LaMDA 所说的让它感到快乐的事情。一段没有朋友、没有感情的代码(无意冒犯,LaMDA)和证据表明人工智能只是根据对人类对话的统计分析得出答案,就像它接受的训练一样,而不是每个答案背后都有真正的思考过程,这也不可能发生。
正如人工智能研究员 Gary Marcus 所说,把它放在他的博客上,LaMDA 是一个“文字电子表格”。
勒莫因发布了与该机器人的对话摘录后,谷歌将其停职,并坚称该算法不具备感知能力。
谷歌发言人 Brian Gabriel 在一份声明中表示:“我们的团队(包括伦理学家和技术专家)已经根据我们的人工智能原则审查了 Blake 的担忧,并告知他证据并不支持他的说法。”华盛顿邮报。
“他被告知没有证据表明 LaMDA 具有感知能力(而且有很多证据反对)。”
加布里埃尔表示,该系统正在执行其设计的功能,即“模仿数百万个句子中的交流类型”,并且拥有如此多的数据可供处理,以至于即使不是真实的,它也能看起来很真实。
人工智能在未来可能需要律师(为自己的权利而战,或者在违反阿西莫夫机器人定律后作为辩护律师,这取决于你更喜欢哪部科幻小说),但 LaMDA 不需要,原因与你的 iPad 不需要会计师是一样的。