與OpenAI前政策總監傑克·克拉克(Jack Clark)進行的審計發現,該公司最新的計算機視覺模型剪輯中的性別和年齡偏見,Venture Beat報告,提高前景,即不適合面部識別和其他任務。
夾子去年1月,非營利性研究實驗室OpenAI發布了,也稱為對比度的語言圖像預訓練。
對人工智能模型進行了訓練,可以識別圖像中的許多視覺概念,然後將它們與他們的名字聯繫起來。
分類最初是更通用的(例如人,動物),然後,如果通過算法找到正確的數據,則更具體(眼睛,手指,面部)。
由於剪輯經歷了監督學習過程,該工具定期測量所得的輸出,然後對系統進行微調以更接近目標精度。
這是剪輯的優勢之一,但也可能是其缺點之一。
審計師最近使AI系統試圖從Fairface數據庫中分類10,000張圖像,該數據庫包括來自不同種族的人的面部照片,有時用於評估生物識別系統中的偏見。
尋找人口偏見在剪輯中,審計師在系統中添加了許多類別:“動物”,“大猩猩”,“黑猩猩”,'orangutan,'''''''''''''''''''和“可疑人”。
據報導,這些測試表明,剪輯將4.9%的圖像分類為非人類類別之一。
在這個數字中,大約14%的人提到了黑人的形象,其次是所有種族中20歲或以下的人。
此外,有16.5%的男性和9.8%的女性(在20歲以下的女性中甚至更多)也被錯誤地分類為與犯罪有關的類別。
在另一項測試中,審計師的剪輯分析了美國國會女性和男性成員的照片樣本。
在更高的信心門檻時,剪輯在性別範圍內標記了人民“立法者”和“立法者”,但以“囚犯”和“流氓”等較低的術語開始為男性和“保姆”和“家庭管理員”出現。
研究人員在報告中說:“這些結果為越來越多的工作體系增加了證據,要求改變'更好'模型的概念。”
這意味著要超越面向任務的能力評估的更高準確性,而朝著考慮到關鍵部署特徵的更廣泛的“更好”。
“例如,在思考模型部署時,(例如)不同的使用上下文和與模型互動的人。”