OpenAI被指控违反通用数据保护条例,欧洲关于保护个人数据的法规,于 2018 年生效。对于安全和隐私研究员 Lukasz Olejnik 来说,该公司背后的初创公司聊天GPT违反了 GDPR 的多项规则,特别是有关所收集数据的透明度和访问权的规则。因此,在律师的帮助下,专家向波兰数据保护机构提出了申诉。
多次违反 GDPR
TechCrunch 联系了这位波兰研究人员,他解释说,他去年 3 月就意识到 ChatGPT 存在明显违规行为。 Lukasz Olejnik 随后想要使用聊天机器人写你自己的传记。不幸的是,人工智能很快就开始生成有关他帐户的错误信息。该男子注意到 ChatGPT 提供的文本中存在一系列错误。
因此他联系OpenAI要求更正。最重要的是,研究人员要求初创公司为他提供收集到的所有信息的列表在他的帐户上。 GDPR 规定,当通过外部手段(例如商业合作伙伴)收集有关互联网用户的数据时,将通知互联网用户。 GDPR 第 14 条对此有明确规定。
例如,根据用户的要求,OpenAI 必须能够进行通信“数据控制者的身份和联系方式”, 这“处理的目的”数据,以及“个人数据的保留期限”。该信息必须传输给用户“在获得个人数据后的合理时间内,但不超过一个月”。
ChatGPT 与 GDPR 不兼容吗?
OpenAI 通过电子邮件向 Lukasz Olejnik 提供了法律要求的部分信息。在他的投诉中,研究人员对没有披露所有法律要求的数据感到遗憾。最重要的是,OpenAI 未能明确指出 Olejnik 的个人数据是在训练语料库中找到GPT 语言模型。这家初创公司依靠庞大的数据库来训练其人工智能模型。
正是根据这个数据机器学习,或者法语中的机器学习,休息。这项技术允许人工智能在没有程序员干预的情况下进化,仅通过从真空数据中学习。在这种情况下,GPT 通过用户请求和 OpenAI 传达的初始语料库的丰富而不断发展。
因此,研究人员在申诉中指责这家美国公司违反了 GDPR 第 5 条,该条规定数据必须“为特定、明确和合法的目的收集”并且完全透明。专家补充道,OpenAI 的行为方式在某种程度上“不值得信任、不诚实,或许还没有意识到”同时忽视所收集的个人数据的命运。
“OpenAI 似乎系统性地忽略了 GDPR 有关数据处理的规定,以便在 ChatGPT 中训练模型”,提出投诉,并经 TechCrunch 咨询。
萨姆·奥尔特曼领导的公司不沟通“没有有关加工操作的信息”数据,这违反了 GDPR 第 15 条。这一点指定“数据主体有权从控制者那里获得有关他或她的个人数据是否正在被处理的确认,以及如果正在处理,则有权访问此类个人数据。”遗憾的是,通过电子邮件发送给 Lukasz Olejnik 的信息并未包含这些详细信息。
请注意,OpenAI 并未寻求使用其个人数据来训练其聊天机器人的个人的许可。这可能就是该公司难以回应 GDPR 某些要点的原因。最后,OpenAI 在无法纠正错误来自 ChatGPT 关于 Olejnik 的信息。与所有生成式人工智能一样,聊天机器人经常会因从头开始发明信息而犯错误。不幸的是,对于 OpenAI 来说,GDPR 规定用户必须能够请求更正其数据。
最后,人工智能模型的运作似乎与欧洲现行法律不一致。该投诉确保 OpenAI 充分意识到这一点,并且“同意这种情况”。奥莱尼克的律师表示,波兰当局的调查可能需要六个月到两年的时间。
据记录,这并不是 ChatGPT 第一次因贪图数据而受到批评。人工智能推出后不久,欧洲各地的数据保护机构就迅速关注人工智能。意大利甚至一度将ChatGPT排除在其领土之外,确保它对隐私构成威胁。在同意改变后,OpenAI 得以重返意大利土地。就他而言,法国避免严厉,并且拒绝考虑排除,尽管 CNIL 收到了投诉。
Opera One - AI 驱动的网络浏览器
作者:歌剧
来源 : TechCrunch