几个月来,我们一直在与您讨论《人工智能法案》或人工智能法规,但您仍然没有完全理解这篇文章的用途、它包含的主要原则、为什么要采用它这么多时间,你怎么会担心呢?这篇文章适合您。
«幻觉“ 的聊天GPT, 重复使用个人资料、系统缺乏透明度……虽然众多的问题或小问题掩盖了 ChatGPT 产生的热情,中途和所有其他生成人工智能工具一样,欧盟几个月来一直致力于制定监管人工智能行业的文本。 5月11日,迈出了决定性的一步。欧洲议会议员给出了他们的《人工智能法案》首次开绿灯,或欧洲人工智能监管。欧洲议会委员会达成的政治协议应在6月中旬的全体会议上获得通过。
该文本已提交欧洲代表数月,可能成为世界上第一批有关人工智能的法律之一。这些法规在世界各地都可以遵循,就像 GDPR(个人数据法规)一样。但某些主题,例如面部识别或生成文本、代码和图像的工具,仍然引起了许多分歧。这篇文章的用途是什么?它包含哪些主要原则?它会对您产生什么影响?这是你需要记住的。
1.《人工智能法案》,监管人工智能行业三大支柱之一
之后中国已经发布了重大原则《人工智能法案》将成为世界上首批对人工智能开发商施加新的透明度和治理义务的文本之一。它旨在结束当前的“狂野西部”,并将更好地保护欧洲公民。如果不遵守这些新规则,该行业的公司将面临巨大风险:除了被排除在欧盟市场之外,它们还可能需要支付高达 3000 万欧元或营业额 4% 的罚款。
这段文字被设计为总理和校长一组三个元素的文本这将构成未来的欧洲立法。
- 《人工智能法案》将要求人工智能开发者作为开放人工智能对于 ChatGPT,谷歌对于巴德和其他所有人新的透明度和治理义务。
- 其次,一项未来的指令——尚未讨论,但于去年九月提出——将解决以下问题:人工智能造成的身体或精神损害的责任给欧洲公民。
- 的技术标准最终将由欧洲电子和电工标准化委员会 Cen Cenelec 在第三阶段发布。后者将从技术上阐明《人工智能法案》的义务意味着什么。 “例如,该法规规定了透明度义务。一旦我们说过了,我们还没有说出一切。”索邦大学私法讲师、索邦人工智能中心 (SCAI) 成员 Arnaud Latil 解释道。 “生成式人工智能的透明度与分析工业产品质量的人工智能不同。该委员会将定义这种透明度的实施é,”专家补充道。
2. 仅对人工智能的使用进行监管,而不对人工智能本身进行监管
另一点需要理解:《人工智能法案》被认为是一个文本,它将规范特定用途人工智能。这个想法不是说一项技术是好还是坏,而是看如何使用它,以及这种使用会给欧洲公民带来什么风险。根据风险程度,人工智能将分为四个定义类别之一:不允许的风险、极高风险、中等风险和较低风险人工智能。这风险金字塔将或多或少地对人工智能开发者施加更强的透明度和治理义务。风险越大,债券就越牢固。
- 这不可接受的人工智能使用是完全禁止的。例如,社会评分就是这种情况,即根据个人的可靠性对个人进行评级。对于旨在使用潜意识技术进行操纵并作用于无意识的系统......或那些利用人的脆弱性的系统也是如此。
- 这高风险用途的人工智能在向欧洲人开放之前必须经过事先评估和合格控制程序。
这涉及关键基础设施的管理和运营工具、与教育、基本私人和公共服务、移民、人力资源和边境管制相关的人工智能系统。对求职者进行排名的简历分析工具就属于这一类。
特别是,公司必须(名单很长)建立风险管理系统、系统的人工控制、技术文档以及用于培训的数据治理的具有约束力的政策。他们还必须遵守准确性、稳健性和网络安全的义务……这些规定的遵守情况将由 27 个成员国指定的监管机构进行监督。
- 这中等风险用途仅对用户承担透明度义务。
- 这低风险用途像人工智能视频游戏或垃圾邮件过滤器一样不受人工智能法案的监管。
3.采用欧洲法规需要很长时间
欧盟委员会的提案日期为 2021 年 4 月 21 日。为什么该文本至今仍未获得通过,尽管监管该行业的呼吁已发出数月之久,来自欧盟的代表多于人工智能参与者Sam Altman,ChatGPT 背后的 Open AI 老板?首先,因为欧盟内部通过一项法规需要数年时间。 GDPR 花了七年时间才成为法律。然而,欧盟委员会副主席玛格丽特·维斯塔格 (Margrethe Vestager) 5 月 8 日表示,“我们必须走得更快» 使我们的立法适应人工智能。
要使文本成为欧洲法律,我们常常忘记需要三个主要机构的同意:欧盟委员会(执行机构)、欧洲议会(公民的声音)和理事会(代表 27 个成员国) )。首先,三个器官中的每一个都必须发出单一的位置。该委员会是撰写该案文的机构。该委员会已经制定了该法规,并于去年秋天发布了经过修改的折衷方案。现在轮到议会提出单一文本,这条道路可能是漫长而痛苦的。对此文本,705名欧洲议会议员提出了数千项修正案。
一旦达到这一步——六月中旬全体会议投票时应该就是这种情况,所谓的“三部曲”就会开始。这三个机构围坐在一起,必须在重大的最终投票之前就单一文本找到共同点。
4、ChatGPT的到来拉长了争论
在这个漫长的过程中,发生了一件意想不到的重大事件:聊天GPT。该案文于2021年4月21日提出, 任何一个生成式人工智能出现前几个月。当时,据估计,GDPR、个人数据法规或 DSA 已采用基于风险的方法,数字服务法,很合适。
然而,随着 2022 年 11 月 ChatGPT 的推出,以及生成式 AI 和所有内容生成工具的爆炸式增长,“我们有些紧迫地意识到,实际上存在多种用途的工具。如果我们想从整体上把握它们,我们就必须摆脱使用方法。»,阿诺·拉蒂尔解释道。翻译:当轮到欧洲议会议员审查法规并达成协议时,ChatGPT 重新洗牌。我们意识到相同的人工智能可能会带来不同的用途和风险。欧洲议会议员随后想知道他们是否不应该为这种特定的人工智能添加具体条款。
使用方法会带来什么问题?一方面,这允许将公众辩论集中在最严重和最危险的事情上,并将其放在第二位,这是偶然的。但另一方面,“首先,根据风险水平进行区分并不是一门精确的科学。风险方法的危险在于它的利用»,阿诺·拉蒂尔强调道。当立法者想知道人工智能是否存在风险时,他会依赖科学家的意见,但也会依赖他对他认为有风险的事物的政治信念。
这例如,法国宪法委员会在巴黎奥运会期间确认了增强相机的使用,这是否构成风险? “有些人会告诉你是的,另一些人会告诉你不是,所有的科学专业知识,过了一段时间,将由政治部门决定»,教授总结道。
5. 欧洲议会议员增加了……很多
在欧洲议会内部,关于是否为生成人工智能添加具体规则的问题引起了激烈争论。最后,代表们认为有必要特别增加这些人工智能的义务,特别是在透明度和尊重基本权利方面。欧洲议会议员补充道:有义务以不侵犯基本权利,特别是言论自由的方式训练和开发生成式人工智能。目前这仍然有点不清楚。»,阿诺·拉蒂尔分析。代表们提出的另一个要素是:生成式人工智能的培训今后不得侵犯版权。
这些元素远非唯一。与委员会和理事会的计划相比,欧洲议会议员扩大了禁止用途清单。基于情绪识别的人工智能现在已被完全禁止,雇主或警察可以使用它来识别疲劳的员工或司机。尤其紧张的一点是:代表们还禁止在公共场所实时和事后进行远程生物特征识别(因此面部识别)。不过,如果法官事先授权,追溯使用仍然是可能的。
在这一点上,在最终投票之前,界线仍可能发生变化。但对于该文本的联合报告员布兰多·贝尼菲来说,重要的事情并不在那里。 《人工智能法案》将规范蓬勃发展的行业,也旨在减轻人工智能引发的担忧,例如其对就业和民主的影响。他解释说:“通过我们的文字我们展示我们想要什么样的社会,在这个社会中,(……)预测性警务、生物识别分类、情感识别和互联网上面部图像的歧视性检索被认为是不可接受的做法»。