蚁丘中的一脚? 3 月 31 日星期五,加兰特,克尼尔意大利人,决定在意大利屏蔽 ChatGPT。负责保护的当局个人资料决定展开调查开放人工智能,对话代理背后的公司。她还“命令暂时限制 OpenAI 处理意大利用户数据,立即生效”。因此,目前最受欢迎的聊天机器人无法再使用意大利用户的数据。
原因:涉嫌违反 GDPR(2016 年欧洲个人数据保护法规)规定的欧盟数据保护规则。CNIL(法国)目前没有类似的程序正在进行中,但她向我们的同事解释道在论坛 她决定与担保人协商。这是意大利当局的过度热情,还是已经拥有 1 亿用户的 ChatGPT 的第一步,有点晚了?
担保人列出的违规案例
为了证明这一决定的合理性,意大利 CNIL 依靠四个要素。首先,该公司尚未实施验证用户年龄的系统——这是欧盟个人数据法规 GDPR 通常规定的一项义务。理论上,对话代理是为 13 岁以上的人保留的。金子, ”由于缺乏验证用户年龄的过滤器,未成年人面临的反应与他们的发展水平和自我意识完全不相符“,担保人解释道。
另一项违规行为指出:这家美国公司没有向意大利当局报告其高级服务 ChatGPT Plus 的某些订户数据于 3 月 20 日泄露的情况。 GDPR 要求在很短的时间内通知任何泄露情况。 OpenAI 也没有告知用户他们的数据将被重新用于训练其人工智能模型。最重要的是,该公司没有法律依据来证明大规模收集这些数据的合理性,而这些数据将使其能够训练其算法。
由于这四个原因,ChatGPT 在意大利被屏蔽。该公司必须在 4 月 19 日之前解释其已采取哪些措施来满足担保人的要求。 OpenAI 面临高达 2000 万欧元或全球年营业额 4% 的巨额行政罚款。
ChatGPT,违反了 GDPR 本身?
这并不是第一次针对 ChatGPT 提出 RDPD 旗帜。几周来,警报信号不断响起。对于某些人来说,聊天机器人系统本身就违反了 GDPR。
首先,因为使用命令提示符系统,它允许您要求人工智能执行诸如编写文本或编写代码之类的任务 - 用户不一定知道正在执行的所有操作都会被重复使用人工智能。然而,OpenAI 在其常见问题解答中警告称,不应向 ChatGPT 提供机密信息。但这经常被遗忘。结果:像亚马逊这样的公司,甚至像这样的市政当局蒙彼利埃最近还要求其员工不要使用 ChatGPT。原因是:通过使用对话代理,可以提供机密信息,这些信息最终可能会到达竞争对手的耳朵或只是出现在公共场所。
第二个问题:ChatGPT 在不依赖“之一”的情况下无法正常收集欧洲用户的数据。理由» 由 GDPR 规定。如果我们按字面意思应用文本,OpenAI 应该为收集到的每个数据指定它打算如何使用它。然而,ChatGPT自己的数据真空系统不允许遵守这一规则。因为会话代理大量收集数据来改进,并且数据不限于特定用途。在这些被吸走的数据中:个人数据——这些数据也不是在征得第一方同意的情况下收集的。
因此,这第一个决定可能是监管机构将 ChatGPT 和所有其他对话代理推入监管时代的机会——这一要求特别是由监管机构提出的。六个月暂停由人工智能领域的部分人士签署。其他欧洲国家是否会抓住这个机会还有待观察。
来源 : 意大利CNIL的决定