一位名叫 Chase Whiteside 的互联网用户有过一次奇妙的经历聊天GPT。据我们 Ars Technica 的同事报道,他可以访问其他用户的对话与生成式人工智能。这些对话突然出现在他 2024 年 1 月 29 日的历史记录中。
“我去提出一个请求 [...],当我稍后回来访问它时,我注意到了额外的对话。当我昨晚使用 ChatGPT 时,它们不在那里(我是一个非常普通的用户)。没有提出任何请求 - 它们只是出现在我的历史记录中,并且绝对不是我的(而且我也不认为它们来自同一个用户)”,怀特塞德向媒体作证,并佐证截图。
敏感信息
神秘出现的对话显然源自制药公司的一名或多名员工。在一次交流中,一名员工使用 ChatGPT 解决内部处方平台上的问题。更令人担忧的是,这些对话包含大量敏感信息,例如密码和用户名。我们还找到了内部门户的名称和药房的名称。正如我们所看到的,ChatGPT 联系人无法使平台正常工作。因此,他在与人工智能的对话中开始抱怨这一点。
Ars Technica 发现的其他物品包括“某人正在做的演示文稿的名称、未发表的研究计划的详细信息以及使用 PHP 编程语言的脚本”。此类信息最终落入其他用户手中显然非常令人担忧。
乍一看,这个案例让人想起2023 年 3 月发生的数据泄露,ChatGPT 浪潮开始几个月后。在几个小时内,少数用户的敏感数据(例如姓名、地址和信用卡号的最后四位数字)被与其他人共享。这一规模有限的故障迫使 OpenAI 暂停 ChatGPT。
OpenAI有解释
然而,OpenAI 保证这根本不是同一个问题。在发送给 Ars Technica 的消息中,这家初创公司声称 Chase Whiteside 的账户只是被第三方黑客攻击。然后,该黑客使用该帐户与 ChatGPT 进行通信,这解释了为什么未知的对话最终出现在他的历史记录中。然后,攻击者向用户社区授予对聊天机器人的访问权限。许多在线服务依赖受感染的帐户来提供对 ChatGPT-4 的免费访问。
“根据我们发现的情况,我们认为这是对该帐户的接管,因为它与我们记录的活动一致……调查表明,对话是最近从斯里兰卡创建的。这些对话与来自斯里兰卡的联系发生在同一时间范围内。”
尽管如此,我们强烈建议您永远不要向 ChatGPT 传达敏感的个人信息。理论上,出现错误或漏洞后,这些数据可能会落入坏人之手。此外,由于对话者提供的数据,GPT 语言模型不断丰富。因此,您的数据最终可能会出现在生成式人工智能语料库中。这就是为什么苹果或三星等公司阻止员工无限制地使用人工智能。意识到这些担忧,OpenAI 几个月来一直在提供ChatGPT 上的隐身模式。
来源 : 技术艺术