雖然許多公司繼續辯論如何以增加數字化的響應以及是否需要創建首席數據保護官職位來塑造其執行團隊,但有些人可能需要考慮創建“首席偏見官”職位,這福布斯。
聯合AI職業發展公司Gloat的Ben Reuveni認為,偏見的歷史問題是最近的皇家歷史學會評論明確了對男性的偏見,因此,在108個不同的經濟部門中,有87%可以輕鬆地將其轉移到人工智能算法中。魯韋尼還引用了喬伊·布拉姆維尼(Joy Buolamwini)的作品,他一再找到證據生物識別系統中的算法偏差並指出,IBM研究論文已定義並分類了180種不同的人類偏見。他認為,通過在過去的示例上基於算法培訓,一些偏見必將進入AI系統。
作為回應,魯維尼說,公司不僅必須考慮改革其數據集,而且還必須考慮與AI相關的過程和人員進行改革。將需要專門的團隊,甚至可能是一個新的執行職位,負責審查數據並應用嚴格的道德標準來打擊偏見。
Reuveni寫道:“例如,“首席偏見官”可以通過推動多樣性來影響工程團隊的僱用,然後定期檢查工程師選擇提供AI算法的數據輸入。” “這是“人員就是政策”的一個例子。認識到AI並不可靠是必不可少的:不良輸入意味著首席偏見官將通過對算法進行的控制測試進行定期績效審查,並通過持續的微調進行調查。”
AI中的偏見問題以及技術更普遍地引起了人們的關注,包括來自美國房屋小組委員會。