过去一周,谷歌部署了AI概览功能在美国。该功能基于Gemini 语言模型,提供旨在帮助搜索引擎用户的摘要。这些摘要显示在结果的顶部,旨在用几句话回答互联网用户的查询。它们是通过将 Google 获得的结果中最相关的信息分组在一起而生成的。
不幸的是,人工智能很快引起了人们的注意他的荒唐言论。和所有生成式人工智能一样,双子座有时会开始胡言乱语。人工智能专家将这种现象称为“幻觉”。在这种情况下,AI建议某些互联网用户在他们的披萨上加胶水或者每天吃一块石头。显然,双子座被他从网上收集到的虚假信息所愚弄。
另请阅读:对谷歌的恐惧促使微软进军人工智能领域
谷歌将矛头指向“数据空白”
事件发生几天后,谷歌返回双子座胡言乱语的原因。谷歌搜索主管 Liz Reid 在一篇博文中表示,Gemini 不一致的摘要主要是由于“数据空白”。
与其他聊天机器人不同,AI Overview 功能不仅仅根据训练语料库中的信息生成响应。为了与引擎协同工作,Gemini 是“与我们的核心网络排名系统集成,旨在执行传统的“搜索”任务,例如识别相关结果”。当人工智能无法在网络上找到相关信息时,它可能会依靠低质量的内容生成错误的答案。这就是山景城巨头谈论的原因« 视频 »信息,主要是不太常见的问题。有时有“关于某个主题的有限数量的高质量内容”,谷歌感到遗憾。
糟糕的解释
根据谷歌的说法,双子座也碰巧误解了请求互联网用户的首字母缩写或误解互联网上的信息。在某些情况下,人工智能会按字面意思理解讽刺内容。这就是当双子座建议互联网用户每天吃一块石头时发生的事情。
这些理解错误可能会导致写出不连贯的总结。谷歌指出,这些情况非常罕见。最重要的是,该公司声称其人工智能不会“通常会产生幻觉”不是。她只是误解了在网上找到的内容,但她并没有凭空编造出荒谬的答案。当双子座建议在披萨中添加胶水时,人工智能显然被论坛上出现的信息所欺骗:
“论坛通常是真实的第一手信息的重要来源,但在某些情况下,它们可能会带来不太有用的建议,例如使用胶水将奶酪粘在披萨上。”
尽管存在一些问题,谷歌表示对人工智能概述结果感到满意。据该公司称,人工智能生成的摘要“准确率”相当于著名的Google优化片段。这些是简短、简洁的答案,出现在搜索结果的顶部,并且基于网页的部分内容。
这远非人工智能第一次对其行为感到惊讶、失望和担忧。去年,基于与 ChatGPT 相同技术的聊天机器人建议对话者制作基于漂白剂的鸡尾酒。此外,亚马逊发现,在其商店出售的某些在人工智能帮助下编写的书籍可以提供致命的建议关于蘑菇的食用量……
来源 : 谷歌