印度和美國的學術研究人員正在採取幾種不同的方法來解決來自不同人口群體的人臉生物識別技術的公平性,以及用於訓練生物識別算法的數據集。
IIT 研究人員開發 FPR 框架
印度焦特布爾理工學院 (IIT) 的研究人員開發了一個框架來評估“、隱私和監管”(FPR)規模,旨在解決針對印度背景定制的人工智能係統中的偏見和道德失誤問題。
根據 PTI 發布的一份報告本週雜誌印度理工學院焦特布爾分校教授、該研究的通訊作者 Mayank Vatsa 表示,在專門為印度構建面部識別系統時,最好優先考慮反映該地區存在的面部特徵和膚色多樣性的數據集。
該框架與國際合作者共同開發,並於 8 月份發表在《自然機器智能》雜誌上,為數據集分配了 FPR 分數。它通過評估人口代表性來評估公平性,通過識別可能導致數據洩露的漏洞來評估隱私,並通過檢查對法律和道德標準的遵守情況來評估監管合規性。
研究人員審核了 60 個數據集,包括 52 個基於面部生物識別的數據集和 8 個胸部 X 光數據集,發現了廣泛的缺陷。大約 90% 的人臉數據集得分較低,其中大多數未能滿足公平性和合規性標準。
SMU 和 WVU 探索合成數據的潛力
隨著面部識別領域的人工智能應用在全球範圍內擴展,南衛理公會大學 (SMU) 和西弗吉尼亞大學 (WVU) 的研究人員也在帶頭努力解決該技術中長期存在的偏見、公平和安全問題。
在 SMU 萊爾工程學院,計算機科學助理教授兼 SMU Guildhall 研究副主任 Corey Clark 領導的團隊專注於生成用於 AI 訓練的大量合成數據集。與包含真實人類圖像的傳統數據集(通常通過道德複雜的協議或網絡抓取獲取)不同,合成數據集是通過算法創建的。克拉克在一篇文章中提到了這些數據集YouTube 解說員,可以模擬高度逼真的人類肖像,而不依賴於可識別的個人,在保護隱私的同時實現大規模模型訓練。
種族和性別的風險算法招致了批評,並強調了公平技術的必要性。
Nima Karimian,萊恩計算機科學與電氣工程系助理教授西弗吉尼亞大學工程與礦產資源學院的本傑明·M·斯塔特勒 (Benjamin M. Statler) 強調,生物識別系統面臨重大安全漏洞,特別是針對手機和筆記本電腦等硬件的攻擊。
在西弗吉尼亞大學,Karimian 正在從不同的角度解決這個問題,利用 632,000 美元的 NSF 職業獎來探索人工智能在偏見和公平失敗方面的脆弱性。他的工作強調了在關鍵應用程序中使用有缺陷的數據集或算法所固有的風險。
“迄今為止,還沒有專門針對反欺騙生物識別技術中的偏見和公平性的研究,”卡里米安在談到活性或演示攻擊檢測 (PAD) 時說道。
“部分挑戰在於,當前以減輕偏見的方式訓練人臉識別軟件的最先進技術涉及使用,而不是真實人臉的圖像。但如果我們試圖減輕反欺騙系統中的偏見,合成數據生成將不起作用,因為反欺騙系統的全部目的是區分虛假樣本和真實數據。 ”
克拉克認為合成數據對於克服公平人工智能的障礙可能至關重要,而卡里米安則試圖解釋人口偏見的根本原因。
文章主題
||||||









