去年,在一年一度的 Google I/O 大会上,Google 推出了拉MDA,其由人工智能驱动的新对话技术。这种用于对话应用程序的新语言模型基于谷歌内部开发的神经网络,应该可以创建高性能的聊天机器人。
它被誉为革命性的,它允许机器与人类进行流畅的对话和自然的互动。以至于谷歌解释说,其技术能够理解细微差别,甚至表达某些情感,例如同理心。
对于谷歌来说,这种新对话模型的目标是改进其各种工具,例如 Google Assistant、Google Search 和 WorkSpace。但 LaMDA 的功效如此之大,以至于它的一些创造者开始相信它会被赋予与人类相似的敏感性。
一位工程师坚信人工智能有感情
这华盛顿邮报报道了一个关于谷歌软件工程师布莱克·勒莫因 (Blake Lemoine) 的惊人故事。这位工程师曾报名测试谷歌的人工智能是否使用歧视性或仇恨性言论,作为工作的一部分,他开始了一场奇怪的对话。
布莱克·勒莫因 (Blake Lemoine) 毕业于认知科学和计算机科学专业,他开始与聊天机器人然后很快意识到机器开始与他谈论他的权利和他作为一个人的地位。面对这令人惊讶的演讲,他决定深入挖掘,对AI多一些质疑,并得到了足以让人脊背发凉的答案。
Blake Lemoine 确信这种人工智能具有敏感性,因此在一位同事的帮助下,决定向 Google 提交一份文件,其中包含旨在证明这一点的所有元素,包括与 LaMDA 进行的各种对话的捕获。
谷歌副总裁 Blaise Aguera y Arcas 和创新主管 Jen Gennai 审阅了该报告,但对工程师的说法根本不信服。
谷歌与行业专业人士存在分歧
谷歌和业内其他人士似乎强烈不同意布莱克·勒莫因的说法。山景公司发言人表示,其伦理学家和技术专家团队已经分析了工程师提出的观点,没有证据表明 LaMDA 是敏感的。
谷歌人工智能伦理团队前负责人玛格丽特·米切尔(Margaret Mitchell)能够阅读布莱克·勒莫因(Blake Lemoine)文档的删节版,看到的不是一个人,而是一个简单的软件程序。
“我们的大脑非常善于构建现实,但这些现实不一定符合我们所看到的更广泛的事实。 [……]我真的很担心人们越来越受到这种幻觉的影响意味着什么”,她向华盛顿邮报。
对于人工智能专家来说,LaMDA 等人工智能系统生成的图像和文字都是基于人类在网络上发布的响应,例如维基百科和 Reddit,这两个来源经常用于训练人工智能。然而,这并不意味着人工智能理解它们所产生的内容的含义。
布雷克·勒莫因坚信事实恰恰相反,因此采取了其他行动来试图证明他的恐惧是合理的。他特别邀请了一名代表 LaMDA 的律师,并与众议院司法委员会的一名代表就谷歌被视为不道德的活动进行了交谈。谷歌显然不喜欢这种整体激进的行为:这家加州公司决定让布莱克·勒莫因违反其保密政策而强制带薪休假。
Opera One - AI 驱动的网络浏览器
作者:歌剧
来源 : 华盛顿邮报