有一个小但越来越长的大厅由面部识别技术导致错误逮捕的人们组成。其中包括罗伯特·威廉姆斯(Robert Williams),他是一个美国人警察面部识别在联邦盗窃案中,误认为他是嫌疑人。
威廉姆斯现在呼吁爱尔兰的警察部队取消其部署生物识别技术的计划。在在都柏林举行的一个活动中发表的评论爱尔兰公民自由委员会(ICCL)并在发布时发行,威廉姆斯指出了使用容易识别有色人种的工具所带来的风险。
“联邦研究表明面部识别系统威廉姆斯说:“在美国,误认为亚洲人和黑人的频率是白人的100倍。在美国,我们正在努力消除FRT已经造成的危害。在爱尔兰,您有机会不首先介绍它。我希望您的政府能听到像我这样的经验,并在将FRT进行警务之前三思而后行。”
威廉姆斯指2019年NIST的报告从那以后更新,表明某些算法误认为黑人或东亚的可能性比白色面孔高10到100倍。但是,并非所有评估的算法都在商业生产中,而其他人则发现人口统计学之间的性能差异是不可察觉的,促使NIST生物识别标准和测试负责人Patrick Grother敦促那些实施面部识别的人具体评估偏见。
考虑到威廉姆斯对美国的声明也可能会辩论面部识别技术由全国各地的执法机构组成。虽然爱尔兰警察仍然可以决定传递面部识别,但这是不可能的。政府正在起草立法,这将使Gardaí进入FRT。和邻近英国的警察已经接受了面部识别坚定不移。
这也不只是岛屿的事。瑞典的警察目前正在推动违反AI法案的限制,并计划部署1:n面部识别在公共场所。加拿大警察最近签约族裔提供面部识别服务。
几乎每个人的面部识别都在美国被误认为黑色
然而,在大西洋的两边都继续进行倒退。发布说美国进步中心(CAP),法律规定的律师民权委员会以及其他14个民权和倡导组织已向国立司法研究所(NIJ)关于在即将发布的有关此事的报告之前,关于NIJ在刑事司法系统中使用AI的信息。
这封信不拉力。
它说:“黑人和其他有色人种面临着严重的民权危害,这是执法人员使用AI的。” “执法机构使用的算法技术复制并加强了现有的种族偏见和歧视;警务技术,例如面部识别,风险评估和预测性警务工具通常可以实现和加速这一趋势。”
联盟说,偏见是“融入了发展和部署的”AI驱动的生物识别工具。它指责数据库用于训练AI发动机 - “大量的数据充满了不准确的数据,并反映了现有的社会偏见和不平等。”此外,统计数据表明,使用面部识别的人类警察也容易出现偏见。
这封信说:“例如,最近的一份报告发现,新奥尔良警察局使用面部识别技术(“ FRT”)来识别黑人个人;他们在90%的时间内将这项技术部署在黑人身上。”
全部但是一个在美国七个人中面部识别错误识别错误被捕的是黑色。
种族偏见不是唯一的问题。联盟还说,缺乏透明度。 “执法机构在保密中笼罩人工智能技术- 从警察监视到可疑身份和监狱管理工具,没有有意义的公众意见或监督。”没有透明度,就没有问责制。
这封信以四个建议在即将发布的报告中提出了四个建议。他们阅读的内容更像是要求。
首先,应禁止执法人员使用种族歧视技术,包括FRT和预测性警务工具。”
其次,“应在公共场所和任何可以放松行使第一修正案权利的环境中使用算法监视工具的使用。”
第三,“应要求对用于执法目的的AI技术进行独立的前部和后部审核。”
最后,“应在刑事案件中向被告披露执法使用AI技术。”