欧洲采用的地方人工智能法规(ia),之后的第一个文字中国监管一个引起热潮和关注点的热潮的部门? 10月2日至3日,第三个三路径,这次会议欧洲议会,理事会(27个成员国)和欧洲委员会。
自去年夏天以来,这三名欧盟(EU)自去年夏天以来就一直在尝试就本文的单一版本达成一致。如果这种三路径使某些要点有可能进步,那么仍然存在分歧。这是要记住的。
如何调节诸如chatgpt之类的系统?
这是赫尔斯(Heyies)几个月来一直试图回答的问题。正如我们去年五月向您解释的那样,当欧盟委员会在2021年4月写这篇文章时chatgpt,OpenAI的会话代理人尚不适合公众。生成AI的疯狂,该技术允许您生成文本,代码或图像,尚未发生。
最初,欧洲高管在文本中选择了一种风险方法,'ia受到其用途的监管,或多或少有强大的透明和治理义务。这个想法如下:风险越大,对这些系统供应商的权衡的义务越多。
但是在2022年11月,Chatgpt启动了,几个月后,其他类似的系统(例如Bard或Ernie Bot)。足以推动理事会,然后是欧洲议会,特别是要通过对原始计划的新规定添加新的规定来监管这种生产力。
欧洲议会议员为他们所谓的新义务定义了新的义务。基础模型»。从我们面对的那一刻起基础模型»,无论风险如何,都必须尊重一定数量的规则。就此而言,该建议选择保持风险方法的逻辑,因为AI供一般用途»。这意味着,当风险较低时,权衡IA供应商的义务将保持较小。
结果:两个机构之间的方法不同意。从术语开始。 “”首先,谈论基础模型很危险,因为它太技术了“评论索邦大学私法的讲师Arnaud Latil,也是索邦人人工智能中心»(SCAI)。在过去的两年中,立法者表达了AI的技术维度,以保留更广泛的定义,以用例,而不是以这种技术为中心。优势:有了这个功能方法»,文本没有锁定在特定技术,即基础模型的技术中。当新技术出现时,必须采用另一种文本的风险较少。但是目前,这种术语的选择尚未在谈判者表上决定。
第二个问题:我们是否应该赞成议会或理事会的方法?欧洲委员会不是选择一个或另一个,而是提出了第三种方式:这将是一个两级的系统来规范生成AI的特定情况,解释说语境,10月3日。执行官没有对所有这些工具施加新的义务,而是在第一层上提出“基础模型只需要尊重良好的做法 - 这不会具有约束力。在第二层中,对于一般使用的基础和AI模型(引用了两个术语)具有重大影响(因此最风险),应观察到义务。这两个级别之间的区别标准尚未停止。但是,在3ᵉ三元格期间,三位谈判者将在没有实施的情况下验证该系统的原则。
自我评估过滤器
Trilogue设法同意的另一点是:过滤“由欧洲委员会提出的,该委员会将决定系统是否属于工具类别”高风险»。赌注很高,因为如果是这种情况,后者将必须遵守更重的义务。
高风险系统的制造商必须先进行事先评估和合规性控制程序,然后才能被欧洲人访问。然后,除了遵守多种义务(例如,准确性和网络安全)外,它将被迫建立对系统的人类控制,这是用于培训的数据治理的结合政策。
这三个机构同意的这个“过滤器”是什么?在营销之前,AI供应商应该进行自我评估。如果它们的系统属于这三个类别之一 - 该工具完成了基本任务,则不会取代人类评估,或者仅执行准备任务 - 它不会被视为高风险。
某些协会批评了这一措施,使是否对AI供应商进行自我评估感到沮丧。这是一个”排气使公司(...)单方面决定其AI系统免于AI法规的要求,即使它打算在高风险地区之一中使用,例如(例如) …)正义或基本公共服务»例如,在他们的9月27日的公开信。
但是,回忆起Arnaud Latil,”这是前法规的一般原则,例如与GDPR有关:我们进行自我评估,在»。即将建立持续的谨慎:如果AI在卫生部门工作,基本权利和安全,它将自动认为是”高风险»。该公司应保留导致其自我评估的痕迹,如果发生欺诈,则应支付美味的罚款。
具体而言,我们要去”留下大量的法规进行操作AI,并在仅是附件或纯粹程序性的情况下将其撤回。似乎只是为了鼓励创新和防止大小的结构受到这些法规的束缚“助理Arnaud Latil。在10月25日的下一个Trilogue中,仍必须讨论和指定条件。
版权总是有问题的
谈判者将简要讨论的另一个主题,而没有决定以下问题:发表受AI系统保护的培训数据版权。在这个阶段,不会观察到进展。欧洲议会希望强迫生成AI发布所用数据的摘要。这项新义务朝着正确的方向发展,但这还不够远,在Trilogue开始前几天,文化演员恳求文化演员。
受益人和作者要求AI的开发人员发布了对AI培训的作品的详尽清单。限制制造商在此主题上保持透明,将使作者能够主张其权利。 “”那么,会出现的问题是:与AI系统和受益人产生的结果的价值共享是什么?但是在回答之前,应该首先有作品使用的记录»,强调Arnaud Latil。
AI用于“军事”或“国家安全”目的,排除在AI法案之外?
其他受试者仍有待确定,例如不受AI ACT监管的AI系统:如果我们只排除AI系统”专门用于军事目的(按照议会想要)?或者更确切地说,选择对27个成员国的更广泛的方法,这些方法希望所有系统用于国防和国家安全»被排除在文本之外:问题可以在计划于10月25日的下一个三路径中解决。