欧盟委员会发布了新的生物识别技术规则和其他人工智能(AI)应用程序,被认为是“高风险”,将违反公司的全球营业额占全球周转额的6%,路透社。报告。
增加的罚款提案取代了先前提议的4%最高罚款,并提到在这方面的罚款应特别严格,以避免具有专制政府控制潜力的技术。在公告的前夕,欧洲议会的40名成员呼吁禁止面部识别和其他生物识别技术在公共场所。
执法部门使用实时远程生物特征识别系统将仅限于防止恐怖袭击,发现失踪儿童和公共安全紧急情况,彭博报告。高风险的AI系统还将被要求使用高质量的数据集,确保可追溯性和人类的监督,并且必须在部署前对规则进行评估。
欧洲技术负责人玛格丽特·韦德吉(Margaret Vestige)宣布了新规定,并提到罚款最高2%的营业额,以向当局提供错误或误导性信息。
该文件最初是由法国在线新闻出版物《环境》报道的,它承认面部识别技术的好处是帮助找到失踪的儿童和恐怖分子。它也澄清了欧盟先前在大规模监视工具上的立场和公共生物识别技术,以及这些技术应始终受到政府的严重审查。
美国联邦贸易委员会愿意规范AI公平性
在全球AI应用程序的一周中,FTC回应了欧盟的一些关注点,并发布了A博客文章关于技术的公平发展和部署。
FTC宣布在发出拟议命令时面临生物识别技术危险帕拉维斯与今年早些时候的遗产实践有关。
根据FTC律师Elisa Jillson的帖子,尽管有助于改善医学,金融,业务运营,媒体等有用,但新的AI技术也可能会破坏现有的消费者保护法。
“例如,COVID-19的预测模型可以通过有效分配ICU床,呼吸机和其他资源来帮助卫生系统对抗病毒,”该帖子写道。 “但是作为一个最近的研究在《美国医学信息学协会杂志》中,如果这些模型使用反映医疗保健分娩中现有种族偏见的数据,那么旨在使所有患者受益的AI可能会使有色人种的医疗保健差异恶化。”
为了解决这些偏见,吉尔森敦促技术公司以适当的数据集的形式为其AI模型提供坚实的基础。在开发AI时,还应考虑歧视性结果,并且公司应诚实和透明地宣称其算法可以提供什么。
最后,公司应该对算法的性能负责。吉尔森说,如果他们不这样做,FTC可能必须干预。
她解释说:“例如,如果您的算法对受保护的班级产生信贷歧视,您可能会发现自己面临着指控违反《 FTC法案》和《 ECOA》的投诉。” “无论是由偏见的算法引起的还是由更平淡的品种的人类不当行为,FTC非常重视信贷歧视的指控,因为它是最近的反对布朗克斯本田的行动演示。”吉尔森总结道。
生物识别专家和马里兰州测试设施主要数据科学家约翰·霍华德称该备忘录为“在美国监管AI的重要时刻”LinkedIn帖子,理由是它强调测试和结果而不是意图,以及FTC愿意调节算法公平性的意愿。