面部生物識別技術中有關算法偏見的兩項新研究都表明,數據集中缺乏多樣性。對錶達不平衡的研究提出了一種使問題更好的方法,但是圖靈研究所的解釋者要求反對看似不可避免的面部識別擴散。
一項關於'面部表情是面部識別的脆弱性加泰羅尼亞大學開放,馬德里自治大學
研究人員認為,缺乏各種表達方式可能會造成安全漏洞,從而影響面部識別系統返回的匹配分數。
該論文以他們先前的工作為基礎學習情感盲的面部表徵',描述了訓練數據集中面部表情之間的不平衡,並著手降低面部生物識別技術中“情感信息”的重要性。
為了解決這個問題,他們提出了兩種不同的算法方法,以學習“情感盲人的表現”。他們稱之為“敏化人”的一種涉及學習一個歧視者和“較少面部表達信息的對抗性正規化器”。另一方面,“學習不學習”,使用預先訓練的面部表達分類器來避免其分析的區域。
對於脆弱性測試,研究人員採用了三種面部識別模型以及情緒數據庫的複合面部表情,擴展的Cohn-Kanade,Celeba和MS-Celeb-1m,這些表情往往大多具有中性表達,並且比可悲的面孔更快樂。
他們發現,儘管面部表情不會影響負面匹配或冒名頂替者,但它可以將真正比較的性能降低多達40%。許多“面部動作單元”會嚴重影響真正的匹配得分。
但是,可以通過使用更多平衡的數據集,面部表情來改變這一點,並通過應用其他偏差方法,專門指的是最近的研究來自密歇根州立大學研究人員的三人組。
圖靈學院呼籲社會從技術人員那里奪回控制
艾倫·圖靈研究所(Alan Turing Institute)的戴維·萊斯利(David Leslie)博士的解釋者,''了解面部識別技術的偏見,'解決與面部檢測和識別技術相關的潛在人權風險(“ FDRT”)。
萊斯利(Leslie)總結了專業和反面部識別營,並指出面對生物識別技術似乎仍在這裡。萊斯利說,不可避免的“普遍性”的印像是一個問題。這是因為對補救的重點避免了關於“更基本的道德問題”的重要對話,因為該技術已經不均勻地增殖,由於不成比例地幫助世界已經對偏見和歧視的偏見,而且不可避免的性能是錯誤的。
最後,他主要是在某一時刻對面對面識別的“日益嚴格的批判聲音合唱”而呼籲,呼籲“社會成員大範圍”共同決定該技術的允許性。萊斯利(Leslie)提供了三個建議,作為恢復社會技術治理的最低起點(與實際的自治相反);透明度和問責制,強大的隱私保存,同意和通知保證以及偏見降低措施,歧視意識設計以及相關基準測試的強大治理機制。