報導好偏見周圍的膚色和性別並不是面部識別系統持有的唯一偏見,它找到了一篇新論文,該論文要求更大的面部生物識別系統開發,以便它們公平。
'一項關於面部識別偏見超出人口統計的全面研究``從德國 - 西班牙球隊用Maad-Face數據集測試了面部和街角面部識別模型,該數據集的屬性超過1.2億個屬性註釋330萬個面部圖像,以查看這些模型是否返回了超越年齡,性別和膚色等明顯人口統計的偏見。
該團隊還測試了非闡釋人口屬性,例如配件,髮型和顏色,面部形狀,面部異常和化妝。
早期發行完整的紙這可能是在最終出版物上進一步編輯的,包括測試的不同屬性的結果,為面部和弧形的偏見揭示圖表,繪製導致偏見導致生物識別識別水平的偏差的屬性,以及導致增強識別績效的偏差。
有小鬍子,山羊鬍子,圓臉,額頭上有障礙物或玫瑰色的臉頰或戴著口紅或眼鏡都會導致識別降解。灰頭髮可以改善它,而鬍鬚甚至只有5點鐘的陰影也可以改善它。
作者能夠解釋結果背後的一些原因,但不是全部。該論文總結說:“這項工作的發現強烈表明,需要進一步提高使面部識別系統更加健壯,可以解釋和公平。我們希望這些發現會導致發展更健壯和無偏見的面部識別解決方案。”
Anyvision最近呼籲公司發展生物識別技術和AI算法為了消除人口偏見,為了回應美國國家標準與技術研究院(NIST)的呼籲,要求公眾評論其評估用戶對AI系統的信任的建議方法。 Openai已承認人口偏見在其新的計算機視覺模型中。