多年來,自動駕駛汽車的製造商一直對安全性進行批評。現在,他們可能必須捍衛自己免受AI偏見的指控。
來自倫敦國王學院和北京大學的一組研究人員檢查使用四個廣泛研究的測試數據集,用於研究無人駕駛汽車的八個深入學習的行人探測器。他們的結果顯示出與膚色和年齡有關的重大公平問題。
與兒童相比,成人檢測的準確性提高了19.67%。該研究還發現,在所有圖像數據集中,該系統在檢測淺皮個體方面的檢測淺皮膚個體的比例要好7.52%。
結果還表明,與淺色皮膚組相比,在低亮度和 - 對比度的情況下,涉及深色皮膚組的檢測性能下降了:黑暗和淺色皮膚受試者之間的錯率差異在晚上躍升至9.68%。
研究人員寫道:“與黑人種族相比,自主駕駛系統中的公平性問題,例如檢測白人族裔行人的準確性更高,可以使歧視性結果永存和基於種族的不平等待遇。”
考慮到某些用戶的面部檢測問題的問題遠程處理軟體.
該研究發現一些積極因素在性別方面的檢測準確性差異僅為1.1%。
公平是軟件測試中的新興域。在研究中,研究人員在研究中使用的四個大規模數據集中添加了手動標記的人口統計信息,從而產生了8,311張圖像,具有超過16,000個性別標籤,20,000個年齡標籤和3,500個膚色標籤。
諸如字母的子公司Waymo之類的自動駕駛公司已經對這項新研究做出響應。在陳述Waymo對Gizmodo表示,該研究沒有考慮其自動駕駛汽車用於檢測行人的所有其他工具。
Waymo發言人Sandy Karp說:“我們不僅使用相機圖像來檢測行人。” “取而代之的是,我們利用我們的完整傳感器套件 - 包括激光雷達和雷達,而不僅僅是攝像機 - 以幫助我們在周圍環境中積極地感知細節,而這種細節很難單獨使用相機。”