国家数字伦理试点委员会(CNPEN)在其咨询意见中认为,公众可以使用的生成人工智能必须被归类为高风险系统。这意味着什么?对欧盟目前正在采用的欧洲人工智能法规有何影响?
这个建议一定会让生成人工智能 (AI) 的开发人员畏缩不已。 7 月 5 日星期三,国家数字伦理试点委员会 (CNPEN) 发布了有关该技术的咨询意见。该法国组织认为,投放市场的基础模型和生成式人工智能系统必须被视为“高风险系统»,定义在欧洲人工智能法规(或“人工智能法案”)目前欧盟(EU)内部正在讨论。自去年 11 月 ChatGPT 出现及其引发的人工智能竞赛以来,欧洲立法者一直在想,生成式人工智能是否不应成为特殊条款的主题。
这项技术允许从命令生成文本、代码和图像,引起了人们的兴奋和担忧。除了对就业影响的担忧之外,这项技术还导致了人工智能带来的错误信息、数据保密、恶意使用,甚至盗用创作者作品的问题,暂时不受法律监管。去年 2 月,数字事务部长 Jean-Noël Barrot 联系了这个 2019 年创建的法国组织,“启发有关数字伦理问题的公众辩论”。五个月后,后者发表了他的意见,他建议公众生成人工智能的更重义务。他建议将这些模型与开源发布的模型区分开来。
说主流生成式人工智能是高风险系统:这是什么意思?
虽然一般公共系统将承担严格的义务,但开放获取工具只需遵守较轻的透明度义务。 《人工智能法案》实际上定义了一个由四类组成的风险金字塔,其中包括高风险人工智能。人工智能带来的风险越大,人工智能开发人员的透明度和治理义务就越大。
因此,说主流生成式人工智能应被视为高风险系统意味着开发人员必须采取一系列保障措施和限制程序。如果按原样通过该文本,相关公司将必须创建一个风险管理系统、一个用于培训的数据治理的具有约束力的政策,甚至是系统的人工控制。理论上,它们还应该在欧洲人使用之前经过事先评估和合格控制程序。
这些主流型号是什么?我们发现 ChatGPT、OpenAI 的对话式聊天及其竞争对手,如 Bard(来自 Google)、图像生成工具,如 Dall-E 或中途。最终,委员会认为,这些系统比其他系统被公民使用得更多,因此必须受到更多的监督。相反,以“开源”形式发布的模型目前不太受欢迎,只会受到“设计师的透明度和评估义务“,除非它们用于被考虑的部门”高风险» – 《人工智能法案》定义的部门,例如健康或招聘。
谨慎、质量来源、评估……道德委员会的其他建议
然后,委员会提出了其他几项建议,有时相当模糊,例如“经济行为者和公共当局必须谨慎行事生成式人工智能系统的采用速度以及初步和持续评估的计划”。针对人工智能为训练而获取的资源问题,其中包括不准确的信息,然后最终出现在对话代理的响应中,委员会写道,设计师必须“赞成使用优质来源,根据明确的标准进行判断,用于生成人工智能模型的学习语料库的构建和使用及其优化»。
为了避免偏见和歧视,该组织还正在推进建立控制机构和实施定量评估。这将涉及在启动基础模型的同时发布此评估。该意见的作者还建议实施“水印»,使得区分人类作品和人工智能工具生成的作品成为可能。版权的改编根据生成人工智能技术» 也推荐。
一项打算在布鲁塞尔产生影响的提案?
在这份纯粹的咨询文本中,委员会打算在欧盟各立法机构(欧盟委员会、27个成员国和欧洲议会)现在必须成为这三个机构之间妥协的主题。而且,最终版本可能包含针对生成人工智能的条款。
欧盟委员会发布的初始文本是在“ChatGPT 狂热”之前于 2021 年 4 月 21 日编写的。聊天GPT该法规于 2022 年 11 月推出时,欧洲议会正在研究该法规,该法规促使欧洲议会不顾一些专家的建议,添加了仅适用于此类人工智能的新条款。
开发这些生成工具的公司正在争取相反的立场,认为生成人工智能不是一个高风险系统。后者特别指出,过重的义务可能会迫使他们离开欧洲市场——这一理由一直被认为是存在的。ChatGPT 背后的 OpenAI 创始人 Sam Altman 在退出之前。因此,道德委员会将自己置于那些认为此类人工智能需要特殊规定和更大义务的阵营中。三部曲将决定什么还有待观察,该步骤包括在重大的最终投票之前将三个欧盟机构聚集到同一张桌子上。下次会议将于 7 月 18 日举行。
来源 : CNPEN 2023年7月5日通知