一些研究人員認為,人類干預可以解決這個問題。但是,人類也可能會偏見佐治亞理工學院計算學院博士校友Samira Samadi,他認為應該研究人類受試者實驗,然後再結論人類干預是解決軟件限制的銀彈。
“人類有偏見,那麼您如何解決與人類的偏見問題?”薩馬迪告訴大學。 “甚至可能會使情況變得更糟。”
薩馬迪(Samadi)招募了人類評估者是否會使該過程變得公平或更偏見,這很好奇,招募了用戶進行人類研究。她教他們面部識別系統以及如何對系統準確性做出決策。
薩馬迪說:“我們確實試圖模仿現實世界的情況,但這實際上使用戶變得更加複雜。”
該實驗證實了找到具有道德採購圖像的適當數據集的困難,這些數據集不會引入研究中的偏見。該研究發表在一篇名為“循環中的人是不夠的:對面部識別中的人類受試者實驗的需求。
一個nist學習該公司分析了99家公司開發的189種軟件算法,發現亞裔和非裔美國人面孔的機會不准確,在許多情況下,儘管有些人口差異,但在許多情況下,亞裔和非裔美國人面孔的認可是10至100倍。
據報導呼吸,大學的獨立學生報紙。上個月,博士生Seyma Yucer-Tektas和SametAkçay與工作人員Noura Al Moubayed博士以及Toby Breckon教授一起提出了他們的研究,使種族偏見降低了百分之一,並提高了種族準確性。為了達到這些結果,該團隊使用了具有各種面部和種族特徵的合成數據集,並更加專注於識別功能。
Google,IBM和Microsoft開發的AI工具的準確性不如預期寫信Wunderman Thompson數據數據科學總監Ilinca Barsan。例如,Google Cloud Vision API無法識別PPE或掩碼標籤和錯誤分類的圖像。它檢測到的一些更令人驚訝的標籤包括口,膠帶,頭飾和服裝。 “面具”以74%的信心確定。 Barsan寫道,IBM Watson的視覺識別非常模糊,而Microsoft Azure認知服務計算機視覺“表現出更無害的性別偏見”。
Barsan總結說:“儘管意識到,對於經過測試的三種服務中的每一種,我們都偶然發現了性別偏見,這令人著迷,這並不奇怪。 “這在所有三個競爭對手中都發生了,儘管技術堆棧和任務截然不同,這並不奇怪,恰恰是因為該問題僅僅是一家公司或一家計算機視覺模型。 ”
減少面部生物識別性能的人口差異的新軟件也已進入市場。種族與中立的面部識別API由AIH技術在Microsoft Azure Marketplace中正式可用。 3月,加拿大公司加入Microsoft Partners Network(MPN)宣布了全球啟動其面部識別-AS-A-Service(FRAAS)的計劃。
AIH技術COO在一份準備好的聲明中說:“ AIH技術的使命是為AI應用程序面臨的現實問題帶來積極的變化,包括解決面部識別方面的種族偏見。” “隨著Azure市場及其支持性生態系統的全球影響力,AIH技術在我們的種族包容性面部識別算法上產生有意義的影響。”