倒计时已经开始:人工智能系统制造商现在有 6、12、24 或 36 个月的时间(具体取决于其人工智能带来的风险)来遵守欧洲人工智能法规《人工智能法案》。这是你需要记住的。
L'人工智能法案, 这 ”全球首个人工智能立法» 将于 8 月 1 日星期四生效,但公司仍有几个月的时间来遵守。对于所有必须适用欧洲人工智能法规(或人工智能法案)的人,即 OpenAI (ChatGPT)、谷歌 (Gemini) 或米斯特拉尔(猫),还包括进口商、分销商和某些用户(例如机构)。欧盟委员会在本周四的新闻稿中回顾称,后者现在必须在 2026 年 8 月 2 日之前遵守该文本,但有三项例外。
- 对于存在不可接受风险(并被禁止)的人工智能系统,该规则将从 2025 年 2 月 2 日起适用。例如,此类别包括社交评分工具、根据人们的行为对人们进行分类的行为,或旨在操纵用户的决策。
- 对于通用人工智能模型,这些规定将在一年内适用,即自 2025 年 8 月 2 日起。
- 与高风险人工智能相关的规则,例如影响教育或人力资源的系统,必须在 36 个月内(即 2027 年 8 月 2 日)得到遵守。
风险金字塔
提醒一下,《人工智能法案》是一个文本规范特定用途人工智能的使用,取决于其使用可能带来的风险,欧洲公民。定义了四个类别:不可接受的风险、极高风险、中等风险和最小风险人工智能。每个类别对应或多或少强烈的义务透明度、可追溯性和治理,这将强加给人工智能开发商和分销商。风险越大,债券就越牢固。
虽然中等风险的人工智能(如 ChatGPT)必须遵守简单的透明度义务,但高风险的人工智能(如教育相关系统)必须在数据库中注册。其开发人员必须满足新的风险管理和质量要求,例如实施人为控制。
自8月1日起,到了落实文本的时候了:AI公司有几个月的时间准备。如果不遵守这些新规则,他们将面临很大的风险:除了被排除在欧盟市场之外,他们还可能因违反与禁止的相关规则而支付高达其全球营业额 7% 的罚款。人工智能。如果不遵守其他义务,罚款可降至营业额的 3%,对于提供不准确信息的公司,罚款甚至可降至营业额的 1.5%。
《人工智能法案》,三联画的 1ᵉʳ 元素
欧盟内部市场专员蒂埃里·布雷顿 (Thierry Breton) 在新闻稿中表示:“欧洲民主建立了有效、适度且世界领先的人工智能框架,应对风险并为欧洲人工智能初创企业提供平台”。但请注意,这是该框架中的第一个文本,因为《人工智能法案》是构成未来欧洲人工智能立法的三个文本之一。
虽然人工智能法规对这些工具的开发者施加了新的透明度和治理义务,但未来的指令将定义制造商在对欧洲公民造成身体或精神损害时的责任。最后,欧洲电子和电工标准化委员会 Cen Cenelec 将在第三阶段制定技术标准。后者将从技术上确定《人工智能法案》的义务意味着什么。
来源 : 欧盟委员会 8 月 1 日新闻稿