面部生物识别技术中有关算法偏见的两项新研究都表明,数据集中缺乏多样性。对表达不平衡的研究提出了一种使问题更好的方法,但是图灵研究所的解释者要求反对看似不可避免的面部识别扩散。
一项关于'面部表情是面部识别的脆弱性加泰罗尼亚大学开放,马德里自治大学
研究人员认为,缺乏各种表达方式可能会造成安全漏洞,从而影响面部识别系统返回的匹配分数。
该论文以他们先前的工作为基础学习情感盲的面部表征',描述了训练数据集中面部表情之间的不平衡,并着手降低面部生物识别技术中“情感信息”的重要性。
为了解决这个问题,他们提出了两种不同的算法方法,以学习“情感盲人的表现”。他们称之为“敏化人”的一种涉及学习一个歧视者和“较少面部表达信息的对抗性正规化器”。另一方面,“学习不学习”,使用预先训练的面部表达分类器来避免其分析的区域。
对于脆弱性测试,研究人员采用了三种面部识别模型以及情绪数据库的复合面部表情,扩展的Cohn-Kanade,Celeba和MS-Celeb-1m,这些表情往往大多具有中性表达,并且比可悲的面孔更快乐。
他们发现,尽管面部表情不会影响负面匹配或冒名顶替者,但它可以将真正比较的性能降低多达40%。许多“面部动作单元”会严重影响真正的匹配得分。
但是,可以通过使用更多平衡的数据集,面部表情来改变这一点,并通过应用其他偏差方法,专门指的是最近的研究来自密歇根州立大学研究人员的三人组。
图灵学院呼吁社会从技术人员那里夺回控制
艾伦·图灵研究所(Alan Turing Institute)的戴维·莱斯利(David Leslie)博士的解释者,''了解面部识别技术的偏见,'解决与面部检测和识别技术相关的潜在人权风险(“ FDRT”)。
莱斯利(Leslie)总结了专业和反面部识别营,并指出面对生物识别技术似乎仍在这里。莱斯利说,不可避免的“普遍性”的印象是一个问题。这是因为对补救的重点避免了关于“更基本的道德问题”的重要对话,因为该技术已经不均匀地增殖,由于不成比例地帮助世界已经对偏见和歧视的偏见,而且不可避免的性能是错误的。
最后,他主要是在某一时刻对面对面识别的“日益严格的批判声音合唱”而呼吁,呼吁“社会成员大范围”共同决定该技术的允许性。莱斯利(Leslie)提供了三个建议,作为恢复社会技术治理的最低起点(与实际的自治相反);透明度和问责制,强大的隐私保存,同意和通知保证以及偏见降低措施,歧视意识设计以及相关基准测试的强大治理机制。