法国负责保护私人生活的当局于 5 月 16 日星期二发布了一项行动计划,要求生成式人工智能开发商遵守规定。与意大利当局相比,当局选择了一条不那么正面的道路,后者已在意大利禁止 ChatGPT 数周。
继埃马纽埃尔·马克龙 (Emmanuel Macron) 的声明之后人工智能谁呼吁“试图理解(AI),成为e”,在“之前”思考框架和实例»,这里是监管方面。负责尊重我们的当局个人资料国家信息技术和自由委员会 (CNIL) 本周二(5 月 16 日)在其网站上发布了人工智能行动计划。其目标是“为开发尊重的人工智能系统做出贡献私生活”。自从 ChatGPT 及其竞争对手推出以来,生成式人工智能(一种允许生成文本、图像或计算机代码的技术)引起了人们的关注关于隐私保护的诸多疑问。
未经授权或保密地重复使用受版权保护的数据,“幻觉”使会话聊天机器人说某位教授卷入了骚扰案件,但事实并非如此,缺乏透明度……此类技术很难遵守欧洲立法保护隐私和个人数据,包括欧洲个人数据法规 GDPR。因此,CNIL 描述了其行动计划,以使这些人工智能系统符合这套规则。她打算怎么做呢?分四个步骤:了解人工智能系统、明确规则、支持企业、最后审计和控制。
与意大利 Garante 相比,正面方法较少
因此,CNIL 并没有采取与意大利同行相同的相当具有攻击性的做法,意大利同行选择用拳头敲桌子。ChatGPT,您可以在此处下载由于不遵守 GDPR,拥有 2 亿用户的会话机器人 3 月份在该国已连续几周无法访问。 ChatGPT 背后的公司 OpenAI 最终同意了一些让步,随后该聊天机器人于 5 月初在该国再次获得授权。在法国,显然不会像意大利那样采取预防性封锁。根据负责数字化转型和电信的部长级代表 Jean-Noël Barrot 的立场,CNIL 在其行动计划中选择了一种不那么正面的方法,即:控制而不是阻止。
该机构在开始其行动计划时回顾说,人工智能是其多年来一直致力于研究的一个主题。该机构主席 Marie-Laure Denis 向我们的同事解释说,负责保护我们数据的人还没有通过 ChatGPT 发现人工智能。回声,5月16日是什么星期二
今年夏天有什么未来的建议吗?
当局首先希望了解这项技术的工作原理,然后再澄清众多有问题的文件,这将是未来的主题”具体建议”。其中需要澄清的一点是:用户传输到对话聊天的数据如何被对话代理重用?例如,机密信息在与聊天机器人的“讨论”过程中被泄露。然后,它们最终进入“机器”,然后被对话机器人重复——这导致三星表示,其员工必须停止使用该工具,以避免敏感数据泄露。
另请阅读: ChatGPT:三星威胁要解雇使用人工智能的员工
它还打算解决训练数据的难题,其中一些数据是在未经作者同意的情况下使用的,例如受版权保护的作品t。 AI的偏见、整改权和反对权也将是这方面反思的一部分。该监管机构宣布将在夏季发布有关该主题的指南和建议,这些文本应来自 100% 致力于人工智能的新服务以及 CNIL 数字创新实验室 (LINC)。
这些不同的作品将使“开发尊重个人数据的人工智能», 强调权威。他们还将帮助为未来的欧洲人工智能监管做好准备,该监管将于六月在欧洲议会进行投票。
为法国人工智能公司提供支持和建议
CNIL 描述了法国人工智能玩家的另一个部分。今年,一加强支撑特别是针对被认为面临风险的法国公司。其中,Contentsquare(正在利用人工智能开发在线用户旅程跟踪解决方案)和Hugging Face(人工智能协作平台)将受益于该计划为期六个月。
审计与控制
最后,仍然存在压制性方面——旨在保护人员的系统和控制的审计部分。 CNIL 表示已获悉针对 OpenAI 公司(推出 ChatGPT 的初创公司)的多项投诉。还开启了控制程序。当局还回顾说,工作组是在欧盟 27 个 CNIL 的代表机构内创建的,以便以同样的声音反对该行业的巨头。所有这些措施是否足以让这些新的科技关键参与者倒闭?