為了解決美國面部識別的偏見,首先至少解決了文化中系統性的種族偏見。
內部作者,發布在Brookings的Techtank博客上,並不是很輕鬆或幼稚。他們的結論是,類似的行業觀察者最近到達了:從種子資金到服務的所有事物都是有意識和潛意識的世界偏見。
AI不禁反映那些根深蒂固的偏見。
大約一年前,AI算法已經非常複雜的世界中最複雜的話題是關於科學家如何從數學上撕裂有害的偏見。
布魯金斯治理研究高級研究員兼Techtank的聯合編輯,布魯金斯研究助理薩曼莎·萊(Samantha lai討論關於AI治理(特別是2020年的《國家AI倡議法》)。
法律的六個“支柱”之一,前進值得信賴的AI,政府認為使算法成為有力而忠實的基礎僕人人類。
如果沒有別的,不可信的AI將受到社會的一般抵抗。
但是,在閱讀國家AI倡議辦公室發布的文件(由2020年法案創建)時,很明顯,努力的領導人認為AI都與周圍的文化不同。
去年,布魯金斯機構召集了一次行業圓桌討論,討論AI對競爭力和勞動力問題的預期影響以及聯邦政府是否充分監督AI系統。
根據布魯金斯(Brookings)的說法,儘管意見在AI偏見的定義上是基本的觀點,但小組成員同意“在AI開發和執行中將多樣性和包容性視為事後思考”。
和“系統出現問題時……無法解決此類有害技術廣度的快速修復”。
該帖子將面部識別視為“危險信號”用例,因為儘管可能造成傷害,但受到的監督有限。
它的缺點導致了指控的錯誤逮捕和事實上對唯一庇護選擇的人的強制性監視公共休斯g。
還值得注意的是,美國政府機構nist和DHS S&T對面部識別算法中偏見的進行評估。
根據布魯金斯的說法,政府和行業領導人必須“追溯到偏見的根源”。
假設國家沒有解決系統性種族主義的解決方案,人工智能開發人員和部署者必須了解文化問題和工作,以包括在教育,培訓,培訓,招聘,創造,創造和管理的過程中。
即使那樣,作者也說反種族主義是“有可能的”倫理可以在AI中紮根。