印度和美國的學術研究人員正在採取幾種不同的方法來解決來自不同人口群體的人臉生物辨識技術的公平性,以及用於訓練生物辨識演算法的資料集。
IIT 研究人員開發 FPR 框架
印度焦特布爾理工學院 (IIT) 的研究人員開發了一個框架來評估“、隱私和監管」(FPR)規模,旨在解決針對印度背景定制的人工智慧系統中的偏見和道德失誤問題。
根據 PTI 發布的報告本週雜誌印度理工學院焦特布爾分校教授、該研究的通訊作者 Mayank Vatsa 表示,在專門為印度構建面部識別系統時,最好優先考慮反映該地區存在的面部特徵和膚色多樣性的數據集。
該框架與國際合作者共同開發,並於 8 月發表在《自然機器智能》雜誌上,為數據集分配了 FPR 分數。它透過評估人口代表性來評估公平性,透過識別可能導致資料外洩的漏洞來評估隱私,並透過檢查對法律和道德標準的遵守情況來評估監管合規性。
研究人員審核了 60 個資料集,包括 52 個基於臉部生物辨識的資料集和 8 個胸部 X 光資料集,發現了廣泛的缺陷。大約 90% 的人臉資料集得分較低,其中大多數未能滿足公平性和合規性標準。
SMU 和 WVU 探索合成資料的潛力
隨著臉部辨識領域的人工智慧應用在全球擴展,南方衛理公會大學(SMU) 和西維吉尼亞大學(WVU) 的研究人員也在帶頭努力解決該技術中長期存在的偏見、公平和安全問題。
在 SMU 萊爾工程學院,電腦科學助理教授兼 SMU Guildhall 研究副主任 Corey Clark 領導的團隊專注於產生大量用於 AI 訓練的合成資料集。與包含真實人類圖像的傳統資料集(通常透過道德複雜的協定或網頁抓取來獲取)不同,合成資料集是透過演算法創建的。克拉克在一篇文章中提到了這些數據集YouTube 解說員,可以模擬高度逼真的人類肖像,而不依賴可識別的個人,在保護隱私的同時實現大規模模型訓練。
種族和性別的風險演算法招致了批評,並強調了公平技術的必要性。
Nima Karimian,萊恩電腦科學與電機工程系助理教授西維吉尼亞大學工程與礦產資源學院的 Benjamin M. Statler 強調,生物辨識系統面臨重大安全漏洞,特別是針對手機和筆記型電腦等硬體的攻擊。
在西維吉尼亞大學,Karimian 正在從不同的角度解決這個問題,利用 632,000 美元的 NSF 職業獎來探索人工智慧在偏見和公平失敗方面的脆弱性。他的工作強調了在關鍵應用程式中使用有缺陷的資料集或演算法所固有的風險。
「到目前為止,還沒有專門針對反欺騙生物識別技術中的偏見和公平性的研究,」卡里米安在談到活性或演示攻擊檢測 (PAD) 時說道。
「部分挑戰在於,目前以減輕偏見的方式訓練人臉辨識軟體的最先進技術涉及使用,而不是真實人臉的圖像。但如果我們試圖減輕反欺騙系統中的偏見,合成數據生成將不起作用,因為反欺騙系統的全部目的是區分虛假樣本和真實數據。
克拉克認為合成數據對於克服公平人工智慧的障礙可能至關重要,而卡里米安則試圖解釋人口偏見的根本原因。
文章主題
||||||