你知道吗电饭锅或恒温器一度被认为是人工智能,以同样的方式聊天GPT今天还有 DALL-E 吗?自上次人工智能革命以来,这个术语被广泛使用,但在美国和欧洲的含义并不相同?这远不是一个反问句,欧洲立法者几个月来一直在努力就人工智能是什么达成一致。对于 4.47 亿欧洲人和所有科技公司来说,面临着什么风险?不多也不少于未来法规的应用关于人工智能——称为“人工智能法»。
与 2016 年欧洲行政部门通过个人数据法规 (GDPR) 一样,欧盟委员会希望在一个数据很少或根本没有的行业制定规则。未来的人工智能法案将决定什么类型的人工智能可以在欧洲部署,企业进入欧盟(EU)市场需要经过什么程序和成本。
监管的不是算法,而是其使用
并且像一个欧洲高管表示,该算法可以实现癌症的早期检测以及街头的大规模面部识别选择了一种特定的方法。他选择监管不是技术本身(算法),而是这些公司对技术的使用。具体来说,人工智能代表的风险越大为了我们的自由或隐私,以及越会受到监管约束– 甚至可以达到禁止的程度。
但我们谈论的人工智能是什么?如何在法律中对其进行定义,使其既包括当前的人工智能,也包括未来的人工智能?为了解决这个问题,《人工智能法案》的作者必须首先求助于主要关注者:计算机科学家。
«在科学中,这个术语存在着严重的歧义工业协会 »
«乙在科学中,这个术语存在着严重的歧义人工智能”,AgroParisTech 计算机科学教授 Vincent Guigue 解释道。 “20世纪50年代,人工智能这个词被创造的时间,任何程序,任何小的算法部分允许您优化和自动化任务基于人工智能»,他报道道。 “在一个电饭锅,我们可以说存在模糊逻辑,人工智能,因为要让米饭停止烹饪,烹饪模式必须以某种巧妙的方式停止,这不仅仅是温度的简单变化。其实就是一个什么都没有的小公式,一行代码“,他继续说道。
直到 80 年代/90 年代,这一活动分支的主要趋势是符号人工智能,这是起源于第一个专家系统。具体来说,它涉及在计算机程序中对一组再现人类推理的符号进行建模。和 ”当我们提出数据分析的统计方法时,机器学习我们被告知,这是当今人工智能领域的主流,“你有点热衷于人工智能,但人工智能并非如此,”文森特·吉格回忆道。
从2012年开始,深度学习在数据的驱动下,机器将整合知识并自行学习Yoshua Bengio、Yann Le Cun 和 Geoffrey Hinton,人工智能这一分支的三位创始人。和 ”一点一点地,这个词“人工智能”指定了机器学习。更多的该术语的恢复在世界范围内的情况并不统一。在美国,如果我们今天说“AI”,那就是机器学习。在法国,在科学界,如果我们说« IA»今天,它是极其模糊的,因为象征性的共同体仍然非常强大。因此,人们仍然停留在之前的立场上:“不,不,人工智能就是我们。”还有机器学习,这是一个很小的部分,这是别的东西»,教授指出。
另请阅读: 人工智能:机器学习是如何工作的?
当问题摆到立法者的桌子上时……
如果这种狭隘的争论没有对科学产生重要的影响,那么它已经成为当人工智能的主题被提到欧洲立法者的桌面上时,这是一个重要的问题。 人工智能意味着什么,它从哪里开始,又在哪里结束?找到一个共同的定义变得更加复杂,因为欧洲立法程序需要三个机构的协调才能通过“法规”——一种在欧盟内部立即适用的法律。委员会的提议必须得到理事会和欧洲议会的通过——这可能需要几个月甚至几年的时间。
委员会的广泛但技术性的定义
大约两年前,欧盟委员会率先进入这一领域。她是《人工智能法案》提案的发起者,该法规的日期为 2021 年 4 月 21 日。她选择了人工智能的广义定义。和 ”人工智能系统» 被指定为“软件它是通过一种或多种方式开发的附件一列出的技术和方法对于一组给定的人类定义的目标,它可以生成内容、预测、建议或决策等结果影响环境他与之互动的»。
附件一列出三大类算法技术的核心:自学习系统(著名的机器学习)、逻辑系统和统计系统。在最初的文本中,委员会可以通过比法规变更更快的程序来更新附件中的这些技术。这使得它有能力纳入所有新的人工智能,并防止法律过快过时。
这个定义的特殊性在于“它以技术为基础,并参考机器学习,以及逻辑和统计系统»,索邦大学私法讲师兼索邦人工智能中心 (SCAI) 成员 Arnaud Latil 评论道。
理事会选择了更严格的定义
第二步:文本随后送达理事会(代表 27 个成员国)。经过一番讨论后,后者发表了一份折衷方案去年十一月。第一个实质性变化:附件不再存在,整个定义已重新纳入法规正文。因此,委员会在出现新技术时迅速更新这一定义的可能性消失了。
第二个变化:删除了“软件”一词,并替换为“系统”。许多人担心,通过包含这个词,所有软件无一例外都将受到 IA 法案的约束,新的要求将扩展到不需要如此严格监管的产品。
最后,如果我们在附录中不再找到对这三种技术的引用,那么人工智能现在必须脱颖而出“更简单的软件系统和编程方法»,理事会写道。添加的其他要素:要获得人工智能资格,必须“系统设计的具有一定程度的自主权»,他使用«机器学习和/或逻辑和基于知识的方法»。
有了这些新条件,人工智能的定义因此是“受到更多限制» 欧洲智库 CEPS 在一份报告中写道:2023 年 2 月报告。它更严格地限于机器学习和类似的人工智能方法。提及一定的自主权“可以进一步将定义范围缩小到能够做出自适应决策的模型»,他补充道。该智库捍卫人工智能的广泛定义,不排除任何人工智能技术,因为“机器学习算法,具有自主性元素» 并不是唯一“对基本权利和安全造成重大风险»。
一个更通用的定义——对议会来说更广泛?
欧洲议会是否听取了他们的意见,并反过来研究了文本并激烈讨论了这个定义?问题仍然存在。因为虽然尚未发布官方立场,但我们知道欧洲人民党(EPP)的某些保守派代表已经发起运动,要求将人工智能限制在机器学习。欧洲左翼和中间派议员正在捍卫更广泛的定义,以免排除人工智能的整个领域。根据我们的同事的说法欧洲活性剂,最近几周,线路发生了变化。
议会最终会同意一项更通用的定义,接近经合组织的——一个月前,摆在桌面上的是美国国家标准与技术研究所。代表们会解释说,国际组织的定义具有已被科学界接受的优点,并提供了合法性的保证。这次报告欧洲活性剂,3月8日,人工智能将被定义为“ 和自动化系统对于一组给定的人类定义的目标,能够做出预测、提出建议或做出决策影响真实或虚拟环境»。
«在法律上,我们经常谈论技术中立原则,这实际上意味着法规中应尽可能少地提及工艺或技术»,阿诺·拉蒂尔解释道。 “在OECD的版本中,有技术中立的原则。与 2021 年 4 月的第一个定义相比,我们可以清楚地看到差异,该定义非常定向,参考了三种人工智能技术。在理事会 11 月的版本中,它接近于技术中立,但事实并非如此。定义仍然在福特的中间。如果最终文本中最终选择的是经合组织,我们就不再提及技术»,教授继续说道。
过度监管的幽灵
除了中立性问题之外,我们还看到,经合组织的定义相当笼统,也比理事会的定义更广泛——我们不再区分复杂系统和简单系统,也不再提及自治或学习技术。哪种人工智能愿景将在文本的最终版本中占上风还有待观察。有什么利害关系?如果定义太窄:风险在于看到人工智能逃逸监管的整个部分。人工智能设计师还可以自愿选择更简单的方法以避免受到此规定的约束。
如果范围太宽泛:这可能会导致该行业过度监管并增加企业成本,害怕一些科技公司。当 GDPR 通过时,Gafam 就表达了同样的担忧。他们甚至威胁欧盟一旦该文本生效就离开该区域。他们认为,这些规则限制性太大,会破坏欧洲的电子商务。但这并没有发生:相反,GDPR 为整个欧盟数字市场创建了单一的法律界面。
随着《人工智能法案》的出台,同样的误解再次出现:人工智能的广泛定义所暗示的过度监管的幽灵再次出现。然而,凭借基于风险的方法,文本仅对其中一些提出了广泛的监管要求:人工智能系统对健康、安全和基本权利造成高风险。对于其余的——比如视频游戏、吸尘器和智能手机上的应用程序中的人工智能,它主要是关于“尽职调查»,赫蒂学院伦理与技术教授乔安娜·布赖森 (Joanna Bryson) 和我们的同事解释道有线。
定义过于狭隘的危险
该案文不会暗示后者有任何新的监管负担,后者代表了大多数情况。这只需要基本的透明度义务;例如,聊天机器人应该表明它是人工智能,而不是与真人互动。
相反,如果我们试图将复杂的人工智能与简单的人工智能分开——这可能会导致无休止的诉讼——或者排除人工智能的某些分支,将《人工智能法案》仅限于深度学习,所有的保证案文规定的内容不适用于被排除的内容。因此,退出政府和公司必须遵守的保障措施,以规避普遍监视的风险。