文化部指示了一个与“受益人的正确薪酬”和透明度义务有关的两个任务的咨询机构,即文学和艺术财产的高级理事会,这是在AI系统的培训阶段,AI的开发商必须尊重AI的开发商必须尊重AI的开发商。如果有些人谴责新的私人税税或水中的剑,这是要记住的。
之后人工智能委员会报告(ia)在三月份渲染,政府刚刚启动了两个与AI面对艺术家和受益人的报酬有关的任务。一个涉及实施透明度的新义务由Openai,Google或Mistral强加于AI开发人员欧洲AI法规的“ AI法”。另一个涉及文化内容的使用和“受益人的正确报酬»,根据可用的两个任务信文化部的网站自4月17日以来。
具体地,文化部长拉奇达·迪蒂(Rachida Dati)要求更高的文学和艺术财产理事会(CSPLA) - 一个咨询机构,负责就文学和艺术财产的事务提供建议,通过咨询专家来处理两个主题。然后,目的是编写一份报告,该报告可用于欧洲一级的未来法规或谈判。
任务1:提出透明义务的执行
在第一个字母中,CSPLA负责“期望透明义务的范围“ AI提供者,”建立AI开发人员必须发布的信息列表»。这项新义务确实是指所描述的和 ”抢劫»作者和艺术家:IA工具的事实”Ingurgitent网络上收集的许多数据受版权保护。在欧洲,艺术家和受益人从理论上可以反对使用“使用”这些系统的作品“选择退出»。
该系统保护受益人,是由2019年版权指令提出的«文本和数据挖掘(在法语中发掘的权利)是不可能的。
但是实际上,这种机制很难实施。作者确实可以在这样一个网站上明确注册:”我不想使用我的工作»,或使用阻止这些AI工具请求的计算机程序。但是我们真的不知道是否考虑了这些反对派,因为Openai,Google或Mistral等IA开发人员尚未传达用于引起其工具的数据列表。但是,没有这些信息,作者将无法或几乎不知道他们的作品是否已被用于培训AI。
在谈判AI法案时,欧洲立法者刚刚试图通过添加“透明度原则»。她强迫开发人员发布“足够详细的摘要»用于训练工具的数据。但本文的实施”值得指定。尤其是供应商的外围,这项义务,所提供的信息的精确度,工业和商业机密对信息披露或如此强加的披露形式的影响»,是否在字母中指定。
如果要在欧洲一级指定措施,巴黎打算在规模上进行权衡。这 ”AI办公室“,一个新的欧洲机构将负责”开发AI使用的驱动器数据的简单有效的摘要模型»。为此,他将很快启动咨询,法国打算参加。这是第一个任务的主题,最终报告可以在这些讨论中提出。这封信发送给了AI委员会成员兼版权教授Alexandra Bensamoun,以及专门从事人工智能的大学教授FrédéricPascal。
任务2:反思AI使用的文化内容的报酬
第二个任务将必须由文化经济学家JoëlleFarchy和同一Alexandra Bensamoun执行。这次是关注“人工智能系统使用的文化内容的报酬»。
两位专家被邀请去”检查法律机制“将允许受益人获得公平的报酬,也可以为AI模型提供者提供法律确定性»。这将是 ”保证使用IA供应商的作品时,保证其权利的受益人»。两位老师也必须”分析获取受保护数据的基本挑战“通过版权”,”当AI使用这些时»。
关系仅在2024年底和2025年建立:截止日期太长了?
要求两位专家在2025年提出最终报告 - 预计2024年底的第一个任务的结论是:两个截止日期。鉴于这些工具的过去和当前发展,这些报告会太晚吗?
如果有些人批评了一项法国法国人的倡议,该倡议旨在在欧洲一级受监管部门的水中只是一把剑,或者其他人已经浪费了新的私人副本税的范围,”这两个任务是必要的,它们是人工智能委员会报告的逻辑延续我们采访的Lerins内阁的Mathilde Croze解释说。
但是,对于专门研究新技术法的律师而言,该法律尤其是将旁白艺术家融合在一起的协会,也有必要同时进行另一项工作。
«我们如何看待在AI面前长期保护创造部门的措施,考虑设置配额或通过补贴将使用人类使用人类的作品?问律师。因为 ”谁最终将资助所有这些人的养老金,包括记者,翻译人员,演员,图形设计师,技术人员,技术工程师,将由AI工具代替的声音工程师?更普遍地,我们已经放弃了倾听,阅读和看非人性化的作品吗?她问。