文化部已责成一个咨询机构,即文学艺术财产高级委员会,承担两项与“权利持有人的公平报酬”和透明度义务有关的使命——这是文学艺术财产开发商必须尊重的一项新义务。 《人工智能法案》下的人工智能,在人工智能系统的训练阶段。如果有人谴责新的私人版权税,或者水中剑,那么我们必须记住以下几点。
之后人工智能委员会的报告(IA)3月份发布的文件中,政府刚刚启动了两项与人工智能相关的艺术家和权利人的报酬有关的任务。一是关于实施新的透明度义务强加给 OpenAI、Google 或 Mistral 等人工智能开发人员《人工智能法案》,欧洲关于人工智能的法规。另一个涉及文化内容的使用和“权利人的公平报酬»,根据两封使命信文化部网站自4月17日起。
具体而言,文化部长拉奇达·达蒂 (Rachida Dati) 要求文学艺术财产高级委员会 (CSPLA)(负责向文化部提供有关文学艺术财产问题咨询的咨询机构)通过咨询专家就两个主题开展工作。然后的目标是编写一份可用于欧洲层面未来监管或谈判的报告。
任务 1:建议实施透明度义务
在第一封信中,CSPLA 被指控“评估透明度义务的范围» 人工智能提供商,以及“建立人工智能开发人员需要发布的信息列表”。这项新义务实际上指的是和 ”掠夺» 作者和艺术家:人工智能工具的事实“他们膨胀» 在网络上收集的大量数据,其中一些数据受版权保护。在欧洲,艺术家和权利持有者理论上可以通过诉诸“选择退出»。
当人工智能工具收集数据进行训练时,2019 年版权指令规定了这一保护权利人的系统:如果作者明确反对(如果他“选择退出”),则该系统«文本和数据挖掘»(这种挖掘权,法语)是不可能的。
但在实践中,这一机制很难落实。作者实际上可以在这样的网站上明确写道:“我不希望我的作品被使用”,或者使用计算机程序来阻止来自这些人工智能工具的请求。但我们真的不知道这些反对意见是否被考虑在内,因为像 OpenAI、Google 或 Mistral 这样的人工智能开发商还没有传达用于训练他们的工具的数据列表。然而,如果没有这些信息,作者就无法或很难知道他们的作品是否已被用来训练人工智能。
在《人工智能法案》的谈判过程中,欧洲立法者试图通过添加“来源透明原则”。它要求开发人员发布“足够详细的总结» 用于训练他们的工具的数据。但执行本案文“值得澄清。尤其是该义务所涉及的供应商范围、所提供信息的精确程度、工商秘密对信息披露的影响甚至披露的形式。», 信中已具体说明。
如果在欧洲层面指定该措施,巴黎打算权衡利弊。这 ”人工智能办公» 一个新的欧洲机构将负责“为人工智能使用的训练数据开发一个简单有效的汇总模型”。为此,它将很快启动磋商,法国打算参与其中。这就是第一次任务的全部目的,最终报告可以在这些讨论中提出。这封信是写给人工智能委员会成员、版权法教授亚历山德拉·本萨莫恩(Alexandra Bensamoun)和专门研究人工智能的大学教授弗雷德里克·帕斯卡(Frédéric Pascal)的。
使命2:思考人工智能使用的文化内容的报酬
第二个任务将由文化经济学家 Joëlle Farchy 和 Alexandra Bensamoun 执行。这次的重点是“人工智能系统使用的文化内容的报酬»。
两位专家受邀“检查法律机制”,这将允许“权利持有人获得公平报酬,并为人工智能模型供应商提供法律确定性”。这将是 ”保障权利人在人工智能提供者使用作品过程中权利的有效性”。两位老师还必须“分析访问受保护数据的经济问题» 受版权保护,«当这些被人工智能使用时»。
报告仅在 2024 年底和 2025 年提交:截止日期太长?
两位专家被要求在 2025 年提交最终报告——第一次任务的结论预计在 2024 年底得出:这两个截止日期引发了疑问。考虑到这些工具过去和当前的发展,这些报告会不会来得太晚了?
如果有人批评法法两国的倡议只不过是给欧洲层面监管的行业打了一记耳光,或者其他人已经开始担心征收新的私人复印税,“这两项任务是必要的,它们是人工智能委员会报告的逻辑延续»,我们采访了 Lerins 公司的玛蒂尔德·克罗兹 (Mathilde Croze)。
但对于专门从事新技术法的律师来说,尤其是与汇集配音艺术家的协会 Les Voix 合作的律师来说,其他工作也应该同时进行。
«例如,我们在什么情况下考虑采取措施,通过考虑设立配额或补贴致力于使用人类的作品,来长期保护创意产业免受人工智能的影响?»,律师问道。因为 ”谁最终将为所有这些人的退休提供资金,特别是记者、翻译、演员、图形设计师、技术人员、音响工程师,他们将被人工智能工具取代?更一般地说,我们是否已经放弃聆听、阅读和观看非非人性化的作品?»,她问道。