这就是争论的焦点:如何像 ChatGPT 一样监管生成型 AI?尽管谈判预计将结束,但对于如何管理基金会模型仍没有达成共识。对于法国以及另外两个成员国来说,一个简单的行为准则就足够了。这一立场远未达成一致,尤其是在权利持有者和创作者之间。面对这一僵局,欧盟委员会提出了一份新文件,其中结合了版权方面的行为准则和义务。
编者注:本文于 11 月 20 日星期一发表,并于 11 月 21 日星期二进行了更新,以纳入欧盟委员会的新提案。
距离 12 月 6 日,也就是下一部三部曲的上映日期,只剩下两周多一点的时间了。«人工智能法案»,欧洲人工智能法规。然而,27个成员国、欧洲议会和欧盟委员会之间仍存在分歧,例如透明度问题以及如何监管生成式人工智能,例如聊天GPT,OpenAI 开发的对话代理。最近几天,包括法国在内的三个成员国之间达成协议的消息使得三位欧洲联合立法者不太可能在年底前就文本达成一致。据报道,为了结束僵局,欧盟委员会提出了一项新提案语境,本周二,11 月 21 日。
法国、意大利、德国就基础模型达成协议?
11 月 18 日星期六,路透社根据我们的同事获得的一份非官方文件,法国、意大利和德国在基础模型上找到了共同点。然而,这一共同立场尚未得到这三个成员国的确认。但据该通讯社报道,这三个国家将捍卫所谓的基本人工智能模型的自我监管理念。这将是一个“通过行为守则进行强制性自我监管» 但没有制裁,至少是立即制裁。
未来对AI的监管“监管人工智能的应用,而不是技术本身”,我们确实可以阅读这份文件。正如我们向您解释的该文本由欧盟委员会于 2021 年 4 月提出,无意管辖该技术本身。他基于该技术的使用定义了风险金字塔。其原则是:人工智能系统的使用风险越大(例如在人权方面,如用于社会控制目的的面部识别系统),该系统的供应商必须尊重透明度和治理义务。完全禁止使用。起初,因此,《人工智能法案》仅对风险最高的用途施加了真正的义务例如教育、人力资源或基本的私人和公共服务。
但一波之后聊天GPT欧洲议会于 2022 年 11 月启动,在没有质疑这一基本原则的情况下,决定引入新的规定。欧洲议会议员特别补充新的透明度义务仅适用于“基础模型”。从我们面临“基础模型 »,无论有什么风险,都必须遵守一定数量的规则。作为成员国代表的理事会选择继续采用基于风险的方法,因为“通用人工智能»。
因此,整个问题是欧洲议员添加的新规定是否会在谈判中生存下来,以及以什么形式:这些是真正的义务还是需要遵守的简单行为准则?
几天前,是法国初创公司首席执行官阿瑟·门施 (Arthur Mensch)米斯特拉尔人工智能,他在一条长推文中表明了立场X。他解释说,他很遗憾文本偏离了基于使用的最初方法,而是对基础模型本身施加了义务。他提出疑问,因为我们如何监管一个不被使用的模型。根据后者的说法,新的义务将有利于 OpenAI 或谷歌等现有参与者(它们都不是欧洲的),而不利于像他的公司这样试图出现的新参与者。
法国、德国和意大利可能会同意这些基金会模型不承担任何义务,并选择通过行为准则进行自我监管。根据欧洲活性剂谁也可以获得这份著名的非官方文件,这三个国家将恳求仅对“通用人工智能系统”的特定(且有风险)应用进行监管,而不是基础模型本身。
为了区分哪些有风险,哪些不会有风险,这些成员国将建议基本模型的开发者发布一种技术表、技术文档。后者“将包含相关信息,以了解模型的工作原理、其功能和局限性,并将基于开发人员社区内的最佳实践», 根据我们同事引用的文件。
«人工智能治理机构可以帮助制定指南并验证表格的应用» 他们补充道,技术。该文件称,最初,如果公司不遵守这一行为准则,则不应实施制裁。但如果屡次违规,可以建立制裁制度。
创作者们站出来反对法国的立场
这一立场如果得到官方确认,将意味着艺术家创作者防御协会正在争取的两条条款将被跳过,即第 28B 条和第 52 条。第一条将迫使人工智能开发人员对系统的训练数据保持透明,因为后者需要发布用于培训的受保护数据的或多或少详细的摘要。第 52 条要求人工智能生成的所有内容都应贴上这样的标签。
尽管如此,11 月 17 日星期五,文化部门还是发布了一份公报,要求法国政府审查其副本,而不是“不要牺牲透明度的义务,否则就无法建立任何坚实的基础»。 «只有训练数据和生成内容透明的无形原则才能保证公民和创作者的权利受到尊重。», 撰写本文的作者,由 80 个工会和组织签署,包括新闻、出版、电影、音乐和摄影领域的工会和组织。
如果没有透明度——因此有义务公布用于训练人工智能并受版权保护的内容列表,那么作者和权利持有者实际上很难甚至不可能获得使用其作品的补偿。几乎不可能知道某项特定工作是否实际上用于训练特定的人工智能系统。去年11月9日报道语境、法国和德国否决了这项透明度义务。从我们路透社同事报道的文件来看,文化世界的新闻稿似乎并没有丝毫改变法国的立场。
但这引起了欧盟委员会的反应,并提出了新的妥协方案,解释道语境 本周二,11 月 21 日。一方面,呈现系统性风险的通用模型应遵循行为准则。另一方面,更基本的模型应该尊重真正的义务,包括一些与版权有关的义务。这些模型的供应商应发布用于训练其系统的内容的“足够详细的摘要”。还有一点回应了文化界的诉求:这些企业必须要采取措施尊重选择退出,权利持有者拒绝将其作品用于培训目的。 2019 年版权指令确实规定了,但“数据和文本挖掘”,人工智能系统有权出于培训目的收集文本或图像,包括受版权保护的文本或图像,以用于研究目的。
然而,这项在 ChatGPT 启动之前构思和通过的条款并没有描述如何实施这种选择退出 — — 如果通过,委员会提议的这项条款将填补这一点。最后,创作者部门的另一个要求,即明确表明人工智能创建的任何文本、代码、图像或视频是否是人工智能生成的内容,也是欧洲主管部门提案的一部分。
行为准则的想法:一个坏主意?
但对一些人来说,首先是行为准则本身的想法——因此制定非强制性标准的事实——会带来问题。根据欧洲活性剂这份非正式文件引用了欧洲议会一位官员的话说,通过提出行为准则,将成为真正的“宣战»,与欧洲议会议员通过的版本相反。
巴黎律师协会律师兼数字法专家 Olivier Iteanu 在一份声明中回忆道11 月 19 日的博文,在没有法律对 OpenAI 等生成式 AI 提供商强加的情况下,一般使用条件 (CGU) 适用。什么时候如果您使用 ChatGPT,这些条款和条件具有法律效力。现在,他们怎么说?无论聊天机器人如何使用,OpenAI 都不承担任何责任。 “如果这个立场在法庭上站不住脚,勇敢的个人用户需要多少年、金钱和时间才能得到承认?» 专家问道,他恳求建立一个公共秩序条例。基础模型或通用人工智能将如何被吞噬?他们必须遵守义务或简单的行为准则吗?技术讨论预计将于本周恢复。
来源 : 路透社