根据市场领导者的一份新职位论文,应更广泛地评估人工智能算法,以确保系统提供对生物识别技术和其他先进技术的信心的结果。培训数据和系统配置也可以使用一些工作。
'卓越算法的六个关键因素,'写族裔创新和客户参与副总裁特蕾莎·吴(Teresa Wu),列出了为数字身份和生物识别应用选择AI技术的标准。
吴写道,算法的问题超出了准确性的简单考虑,算法偏见是AI系统中经常存在的负面特征的现成示例。
她继续为算法开发人员提出六个建议,以追求“最佳性能”,每个人都以特定风险的方式倾听NIST的AI风险管理框架。这些建议旨在构成一个“合格框架,该框架超出了技术考虑,以评估身份和生物识别技术公司是否正在追求其基于AI的算法的卓越发展。”
均应解释透明度,随着时间和多个测试,“现场的经验和鲁棒性”的需求,安全性和隐私以及公平和道德承诺。吴指出,应同时测试用于识别和验证的生物识别系统,并对最近的立法浪潮限制了面部识别的浪潮,该浪潮限制了国家和市政当局的面部识别使用,并具有表现出偏见的算法,并可能导致服务排除。
WU还强调了以道德方式采购培训数据的重要性,并正确配置技术以避免引入偏见。
一个现实世界的例子和学术界的警告
反映AI系统中偏见的结果的一个示例,无论是通过算法引入还是实施,居住在加拿大曼尼托巴省的妇女都必须在系统标记图像以描绘“不自然的”肤色时,由驾驶执照授权工作人员进行颜色校正。CBC报告。
曼尼托巴省的公共保险表明,这一错误可能是由于关注和照明问题导致的,从而阻止照片符合其“面部识别软件和照片标准”。
来自温尼伯的非洲 - 加拿大人托卢·伊莱拉伯(Tolu Ilelaboye)对公共机构的反应不满意,该公司说,当出现图像捕获问题时,员工会调整摄像头设置和其他因素。 Ilelaboye说,在她的案件中没有这样做,并建议更好的员工培训可以解决这个问题。 MPI还说,肤色不是拒绝许可证照片的原因。
可能会更糟。在2022 ACM公平,问责制和透明性的ACM会议上发表的一篇论文表明,在计算机视觉,自然语言处理中使用的“基础模型”训练的机器人,或者既采用了基于他们的皮肤颜色或性别的人,都采用了关于人的偏执刻板印象。
'机器人制定恶性刻板印象``发现必须制定制度政策,以减少由大型数据集和“溶解模型”造成的危害,并呼吁采取协作行动,以解决某些计算系统中内置的偏见和其他有害行为。