越来越多的公司禁止员工在工作场所使用人工智能。这是苹果公司的案例要求员工不要向聊天机器人寻求帮助,三星甚至威胁要解雇违反规定的员工。两家厂商担心的是机密信息提供给聊天机器人,例如聊天GPT、Google Bard 或 Bing Chat 会自动被语言模型吸收。这些有价值的数据最终可能会落入竞争对手或恶意实体手中。
另请阅读:为什么谷歌推迟巴德在欧洲的到来
谷歌担心巴德
人工智能竞赛中的公司之一谷歌也有类似的担忧。据路透社采访的消息人士透露,这家搜索巨头最近警告其员工关于对话机器人。该公司明确要求员工不要向人工智能提供机密信息……即使是它自己的聊天机器人巴德。在 6 月 1 日发布的一份备忘录中,谷歌明确建议其员工不要将机密托付给人工智能:
“请勿在与巴德的对话中包含机密或敏感信息”。
该小组特别要求它的开发商不使用巴德生成的计算机代码 路透社质疑,谷歌认为聊天机器人可以“提出不需要的代码建议”。然而,该公司毫不犹豫地将其人工智能展示为编码向导下列的最后更新。谷歌指出,尽管巴德在编写代码方面存在缺陷,但它仍然是开发人员的好助手。此外,Bard 仍可用于分析现有代码并发现错误。
与 ChatGPT 或 Bing Chat 一样,Bard 可能会吸收对话者提供的数据。这些信息可能很敏感,然后存储在大量数据中,这些数据为 Bard 背后的语言模型提供支持,帕LM 2。一旦被摄入,数据可以理论上在谈话中就会出来与另一个用户。正如谷歌首席执行官桑达尔·皮查伊(Sundar Pichai)去年四月所解释的那样,人工智能模型仍然存在“一个黑匣子”,其功能仍然模糊。
请注意,巴德出口上游已经实施了类似的限制。事实上,第一批内部测试人员被邀请谨慎行事在他们与人工智能的对话中。谷歌向路透社解释说,通过警告员工,谷歌只是为了遵守其有关信息保护的惯常政策,该政策早在巴德到来之前就已生效。
与谷歌、三星或苹果不同,许多专业人士使用 ChatGPT 等生成式人工智能,而不用担心保密风险。根据专业社交网络 Fishbowl 的一项研究,43% 的人在没有通知上级的情况下使用聊天机器人。
Opera One - AI 驱动的网络浏览器
作者:歌剧
来源 : 路透社