关于“关键的谈判”AI行为“, 这欧洲人工智能法规(AI)在欧盟内部收养期间,这2和10月3日星期二,10月3日星期一。欧洲委员会,欧洲议会和27个成员国将不得不讨论一个引起国防和文化协会关注的观点,与生成AI系统的培训阶段有关chatgpt或者诗人。
人工智能行为的目的,第一个规范世界上AI的文本中国之后,是根据AI的风险水平来规范AI的使用:它们越危险(例如适用于关键基础设施或教育管理的系统),他们必须尊重巨大的义务。但是,欧洲议会议员决定,回应面对Chatgpt的文化世界的关注增加适用于“基础模型»»- 这些是生成的AI,能够生成文本,代码或图像(例如吟游诗人或chatgpt)。无论使用什么使用,这些系统都将受到“事实上的”调节。
在本文的先前版本中(由理事会通过,成员国的代表,去年12月),这些模型不被视为“冒险“(因此,要承担更大的义务)高风险申请领域»。这就解释了为什么通过采用议会的版本来尊重培训阶段的新透明义务,为什么这种类型的对话代理会为何尊重新的义务。这项义务的一部分与版权有关。而且,如果作者,演员,出版社或制片厂欢迎它,那么后者的运动是进一步的,他们的目标是强迫AI的巨人,更透明,当他们的生成AI系统受到培训。
要求作者的同意和报酬
这是70个专业组织在9月29日的创建和文化产业中的信息。他们的集体在网站上发布了一个论坛蒙德,呼吁建造AI”尊重文学和艺术特性»。
三天前,13位欧洲和国际作家和艺术家联合会通过在公报,相同的消息。他们要求“知情同意和适当的报酬,在创建工作的各个阶段有效地应用和尊重»。
有了AI,不可能知道是否摄入了这样的工作
自从去年11月的生成AI发展和Chatgpt的成功以来,文化世界一直很担心。在当前版本中,版权或版权很少保护生成AI的作者和受益人。后者为AI充当“黑匣子»。没有什么可以让他们”要知道是否使用了他们的作品,他们在什么日期加入了Copus加油AI,因此是否尊重他们的知识产权他们在专栏中写道。
为了提高效率,这些生成的AI工具必须摄取通常在网络上收集的大量数据,无论所讨论的数据受版权保护是否受到保护。该系统没有区分 - 这意味着未经受益人授权收集许多内容。对于尚未同意使用其作品的主要有关方面,这种情况构成了真实的”抢劫“哪个”AI行为“必须结束,他们希望。作者必须曾经是生成或操作的AI,可以应对能够模仿其风格甚至与它们竞争的系统。有些人毫不犹豫地开始在美国抱怨法律摊牌在欧洲要求赔偿和为将来的用途支付许可证。
另请阅读:大型“数字掠夺”:当生成AI违反版权时
用于引起AI的作品的总透明度
欧洲委员会于2021年4月提出的文字“AI行为于2022年12月首次由理事会确认,然后被修订,然后于2023年6月被欧洲议会通过。 MEP的版本迫使AI的开发人员作为openai-Microsoft for Chatgpt或Google for Bard,以发布有关版权保护的作品的使用摘要。
但是对于版权辩护者来说,这个简单的”恢复还不够。一方面,整个系统都提出了问题,因为这是AI制造商的声明。谁能真正验证使用或未使用过这样的工作?另一方面,该行业的公司应彻底揭示收集培训数据收集的所有来源,而不再是摘要。因为如果作者不知道他的作品已经被使用,那么他怎么能要求获得版权报酬?
法国将寻求“煤炭”抵制这种透明度的义务
在法国画廊中,以给总理伊丽莎白·伯恩(Elisabeth Borne)的信的形式,该集体遗憾不仅试图维持议会提出的修正案。但是这个国家会为成员国的煤炭部分反对本文28b.4,他们写信。
他们要求巴黎改变其战略,尤其是通过强加生成AI使用的详尽作品清单来武装进一步武装。该邮件由SACD(戏剧作者和作曲家的公司),Adagp(图形和塑料艺术中的社会作者),ARP(作者制作人的民间社会)或Adami(艺术家和音乐家解释性权利管理社会)共同签名。根据这些组织的说法,只有总透明度才能使其成为可能”受益人的正确报酬“他们争辩。
8月31日,SACD已经发布了一份新闻稿,她要求Trilogue比议会的提议更进一步。她还说,SO被称为“例外”文本和数据挖掘“由版权指令计划不申请生成AI-这是版权的例外,它允许AI未经授权收集数据,但仅用于研究目的,在这里并非如此。她还要求在收集任何数据之前协商许可协议。作者可以反对使用其作品的事实必须通过”所有人都可以访问的简单过程“就像2019年指令退出一样,要求SACD。
另请阅读:电影:配音世界如何试图阻止AI的“掠夺”
没有什么表明这些请求将得到满足。来自语境,日期为2023年9月14日,强调,相反,包括法国的成员国与基础模型“事实上”的监管思想相反。这具体意味着与保护版权有关的规定可能会消失。经过10月3日星期二的讨论,下一个三路径将于10月25日举行。各方希望在年底之前达成政治协议。
来源 : 2023年9月29日的论坛报在世界上出版