欧洲议会的共同演示者提出了第十套欧盟AI法案的修正案,EURACTIV报告着重于将AI系统分类为“高风险”的标准。
当前定义的“高风险”系统包括公共面部识别和其他一些生物识别系统,并且要遵守任何允许部署类型的部署最严格的规则。
当AI系统被欧盟统一立法的安全规则覆盖,玩具和机械所涵盖时,或者如果用例列出了附件III时,就会发生高风险分类。
MEP Brando Benifei和DragoșTudorache推荐的修正案增加了对“高风险”分类的要求,即系统必须具有特定目的,这将排除通用AI。
为附件III中列出的目的部署还需要第二次测试来达到“高风险”阈值。接受个人或生物识别信息作为投入或影响人们的健康,安全或基本权利的系统可以算作高风险。
这些修正案还赋予欧盟委员会在附件III中修改特定用例的权力。原始文本仅将此权力授予欧盟高管。
它们还增加了系统功能,这些功能超出了滥用的预期目的,数据的性质和数量作为评估新风险的条件。评估风险的其他条件包括系统自主权水平,歧视风险,可减轻措施的可用性,潜在的收益和人类监督的有效性。
委员会将咨询AI办公室,办公室和国家当局可以质疑委员会的决定。然后,欧盟高管将重新评估该决定并发布其理由。
欧盟成员国最近到达共同位置关于AI法案,但立法草案继续提出批评。