据报道,欧盟对《 AI法案》达成了一致,该法案是世界上第一项管理和规范人工智能的立法,该法案应在27个国家集团内实施。
时间报道说,该过程使成员国和几位谈判者克服了关于有争议的问题的重大分歧,例如警察使用面部识别监视和生成性AI。
现在,随着AI规则正式达成临时协议,他们在全球范围内对人类和人工智能产生了更大的影响。美联社仔细观察了AI法案及其工作原理。

据报道,《 AI法案》的重点是规范AI的应用,而不是技术本身,对利用AI的商品和服务采用了“基于风险的方法”。法律维护民主,法治和基本自由,例如自由表达的权利,同时促进投资和创造力。
法规,AI申请的风险较高。例如,内容建议系统和垃圾邮件过滤器只需要遵守最小规则,例如披露它们使用人工智能。
医疗设备是必须遵守更严格标准的高风险系统的示例,例如使用高质量数据并为消费者提供清晰的信息。
AI ACT的禁止申请
由于欧盟,欧盟还禁止了多个申请“对公民权利和民主的潜在威胁,”其中包括利用敏感特征(例如政治,宗教或哲学观点,性取向或种族)的生物特征分类系统;面孔的未定位的互联网或CCTV视频刮擦以构建数据库以进行面部识别;承认工作场所和教育环境中的情绪;
也禁止以下申请根据其对公民权利和民主的可能损害,例如由个人的社会行为或个人特征确定的社会得分;人工智能技术控制人类行为以逃避自由意志;最后,AI技术用于利用人们的弱点(由其年龄,障碍,社会或经济状况引起)。
这些被禁止的申请包括对执法的豁免,例如使用先前司法授权的生物识别系统。仅允许有限的犯罪。
当对一个犯有重大犯罪或涉嫌这样做的人进行重点搜索时,仅利用“后远科”生物识别识别系统。
虽然仅允许实时使用生物特征识别系统以下用途:
- 预防特定和当前的恐怖威胁。
- 涉嫌犯有法规中列出的一项特定犯罪的人的本地化或确定(例如,恐怖主义,贩运,性剥削,谋杀)。
- 有针对性的受害者搜查(绑架,贩运,性剥削)。
高风险AI系统
高风险AI系统的明确要求是因为它们具有危害人类健康,安全,基本权利,环境,民主和法治的巨大潜力。据报道,高风险的AI系统还用于影响选民行为和选举结果。据报道,人们可以针对AI系统提出投诉,并请求有关使用影响其合法权利的高风险AI系统做出的选择的信息。
据认为,通用AI(GPAI)系统及其建立的GPAI模型必须遵守议会首先提出的透明度标准,以说明AI系统可能会和其能力的快速增加。
根据组织的违规和规模,不遵守指南可能会导致罚款范围从3500万欧元,占全球收入的7%,至750万欧元,占营业额的1.5%。
