OpenAI 应该在 4 月 30 日之前向意大利 CNIL 提供担保,否则将受到该国禁止 ChatGPT 的处罚。对于专家来说,这是白费力气:这家美国公司将很难证明它尊重与个人数据有关的欧洲标准。
不可能完成的任务? ChatGPT 背后的公司 OpenAI 只剩下 10 天的时间来遵守担保人的决定,意大利 CNIL 暂停了该国的对话代理。该机构于去年 3 月启动了欧盟(EU)和世界各地对生成人工智能的监管,并要求开放人工智能它符合有关个人数据的欧洲标准。这家美国公司必须在 4 月 30 日之前出示其资质。对于某些专家引用的麻省理工科技评论4 月 19 日,事情很简单:OpenAI 正直奔墙壁。
他不可能对这个负责保护隐私的机构提出的问题做出积极的回应。因为它不可能使其活动符合通用数据保护条例,保护我们个人数据的欧洲法规。未来几周甚至可能会改变生成式人工智能(如对话式聊天)的训练方式,估计我们同事引用的专家。
在训练时,人工智能会吸收个人数据
因为 Garante 以及其他欧洲和加拿大当局提出的质疑是这种人工智能的工作方式,即从互联网上获取天文数字的数据进行训练。原理很简单,数据越多,AI的效率就越高。然而,该操作带来了三个问题。其中数据第一次滑倒个人资料例如,在未遵守 GDPR 规定的条件的情况下收集的姓名或电子邮件地址。该数据的收集通常必须在相关人员同意的情况下进行,或者“合法利益例外» – 通常允许免除用户明确授权的规定。
问题:所有试图利用此例外来证明数据处理合理性的平台都被欧洲法院驳回。 OpenAI 很可能也是如此。
在运行时,人工智能会摄取然后反刍个人数据
第二个问题:使用ChatGPT时,不要给出任何个人信息,专家建议。确实可能存在与聊天机器人分享亲密和私人信息的倾向——例如一个人的精神状态、政治观点、健康问题。然而,在这里,这些数据也将输入机器。这意味着他们随时都可能出来。目前几乎不可能删除这些数据并反对它们被重复使用——这也是 GDPR 通常规定的两点。我们的同事引用了人工智能研究员、谷歌人工智能伦理部前共同负责人玛格丽特·米切尔 (Margaret Mitchell) 的话说,OpenAI 将发现无法识别个人数据并将其从模型中删除。
她解释说,这就像大海捞针一样。即使 OpenAI 设法删除用户数据,也不确定这一措施是否会是永久性的。已删除的数据可能会继续在互联网上传播,即使在“删除”很久之后也是如此。
它不尊重处理准确数据的义务
第三个问题:处理被视为准确的数据的权利,也受到 GDPR 的保障。您并没有注意到对话代理有“幻觉»,理解,聊天机器人会犯错误。在法国,ChatGPT 宣称 MP Éric Bothorel 出生于 1961 年,他是拉尼翁或圣布里厄的市长,并且曾在 Orange 工作:三条不准确的信息。这位政客向 CNIL 提出投诉。 ChatGPT 错误有时要严重得多。例如,对话代理人错误地声称一名澳大利亚民选官员被判犯有腐败罪,或者一名律师被指控在阿拉斯加旅行期间对一名学生进行性骚扰。
结果:很难看出 OpenAI 如何逃脱重罚或禁令。据我们同事引用的纽卡斯尔大学互联网法教授 Lilian Edwards 的说法,OpenAI 的违法行为如此明目张胆,以至于此案很可能最终会提交欧盟法院审理。
在欧洲,在互联网上找到的信息不被视为公开的
OpenAI的防御是什么?在一个4 月 5 日的博客文章,这家美国公司表示,它会努力根据要求从锻炼数据中删除个人信息,“如果可能的话”。她补充说,她的模型接受过训练公开可用的内容、许可内容以及由人工审阅者生成的内容。
在美国,这种培训可能是合法的,因为任何公开的内容(在互联网和社交网络上广播)都不被认为属于该领域。私人的»,强调我们的同事。但在欧盟,有关隐私和个人数据保护的规则要求更高。信息并不是因为存在于社交网络上而变得公开。我们同事引用的 Lilian Edwards 教授回顾了 GDPR 的规则。欧洲公民有权了解他们的数据是如何收集和使用的。他们也有权从这些系统中删除他们的数据,即使数据原件可在互联网上获取。
因此,OpenAI 的回应尤其令人期待。特别是因为这场冲突的结果可能会对所有生成人工智能产生影响。 Garante 和 OpenAI 之间的纠纷结果可能会从根本上改变人工智能公司收集数据和训练模型的方式,特别是如果当前的方法根据欧洲法律被视为非法的话。该决定仅适用于欧洲,世界其他地方也可能效仿。原因是什么? GDPR 是世界上关于保护个人数据最严格的法律之一,其原则已被其他国家采用。
来源 : 麻省理工科技评论