在國家標準技術研究院(NIST)的腳後跟生物識別面部識別準確性的人口統計學差異,人工智能當局和記者Karen Hao麻省理工學院技術評論,最近解釋說,“偏見可以在[AI]深度學習過程的許多階段蔓延”,因為“計算機科學的標準實踐並非旨在檢測到它”。
Data&Society Research Institute的博士後候選人Andrew Selbst解釋說:“在算法系統中修復歧視並不能輕易解決。”社會技術系統中的公平和抽象。
該論文的作者包括Danah Boyd,Sorelle A. Friedler,Suresh Venkatasubramanian和Janet Vertesi,添加了計算機,``公平的ML社區社區的關鍵目標是開發基於機器的學習系統,這些系統一旦引入社會環境,就可以實現社交和法律成果,例如公平,正義和正當程序。 ”該論文的作者(包括Danah Boyd,Sorelle A. Friedler,Suresh A. Friedler,Suresh venkatasubramanian和Janet Vertesi,notection concation concation concect of Concect of Concect'' - 用於定義公平和歧視的概念,產生公平的學習算法,並在決策管道的不同階段進行干預以產生“公平”的結果。”
他們指出:“然而,我們認為這些概念使技術干預措施無效,不准確,有時是危險的誤導,當他們進入圍繞決策系統的社會背景時。我們與五個“陷阱”概述了這一不匹配的“陷阱”,即即使是在與傳統的數據科學相比,即使是更多的上下文,也可以落入更多的背景下,即使是更多的上下文 - 瓦爾。
該論文的研究人員指出,他們藉鑑了“科學和技術研究中的社會技術系統的研究,以解釋為什麼發生這種陷阱以及如何避免它們。最後,我們建議技術設計師可以通過在過程而不是解決方案中的設計來調整設計的方法,而不是在陷阱中減輕陷阱,而不是繪製抽象界,而不是繪製社會參與者而不是純粹的技術參與者。”
Hao explained that “(o)ver the past few months, we've documented how the vast majority of AI's applications today are based on the category of algorithms known as deep learning, and how deep-learning algorithms find patterns in data. We've also covered how these technologies affect people's lives … Machine-learning algorithms use statistics to find patterns in data. So if you feed it historical crime data, it will pick out the patterns associated with霍說,犯罪,指出:“(b)由於大多數風險評估算法是專有的,因此也不可能審問他們的決定或使他們承擔責任。 ”
因此,最近,一個由100多個公民權利,數字司法和社區組織組成的廣泛聯盟發出了一份共同的公民權利問題聲明,他們強調了採用基於算法的決策工具的擔憂。
HOA引用了一個例子,解釋了為什麼“ AI偏見很難解決”,“未知的未知數。在模型的構造過程中,偏見的引入並不總是顯而易見的,因為您可能不會意識到數據和選擇的下游影響直到很久以後。一旦您這樣做,就很難追溯地識別出偏見的位置,然後確定該如何擺脫它的偏見。”
她寫道,不完美的過程是另一個問題,他說:“深度學習中的許多標準實踐並不是考慮到偏見的發現。深入學習模型在部署之前進行了測試,以進行績效測試,從而創造出似乎是捕捉偏見的絕佳機會。但是,實際上是這樣的訓練,在訓練中訓練您的一項訓練,這是在實踐中進行訓練,以訓練您的一項驗證,以驗證您的一項驗證,以驗證您的另一項驗證,並驗證了另一個驗證的驗證。您的模型的性能與您用來訓練的數據相同。
HOA還歸咎於“缺乏社會環境”,這意味著“教導計算機科學家通常與思考社會問題的最佳方法兼容的方式。”
Hoa認為,公平性的定義根本沒有“清楚偏見應該是什麼樣的,” Hoa指出,“這不僅在計算機科學中是真的 - 這個問題在哲學,社會科學和法律中具有悠久的辯論歷史。計算機科學的不同之處在於,公平性的概念必須以數學為單位的概念來確定,因此在數學上定義了一個不平衡的負面率。公平性的數學定義也是相互排斥的。”
例如,她問:“(d)OES公平意味著……黑人和白人的比例應獲得高風險的評估得分?或者,無論種族如何,相同的風險都應該導致相同的分數?不可能同時履行兩個定義,因此在某個時候,您必須在其他領域中選擇一個固定的問題,而在某個領域中,這是一個固定的時間。
塞爾布斯特說:“通過修復答案,您將解決一個看起來與社會傾向於考慮這些問題截然不同的問題。”
“幸運的是,”
“A new wave of decision-support systems are being built today using AI services that draw insights from data (like text and video) and incorporate them in human-in-the-loop assistance. However, just as we expect humans to be ethical, the same expectation needs to be met by automated systems that increasingly get delegated to act on their behalf,” noted researchers Biplav Srivastava, and Francesca Rossi, in their paper,達到AI服務的組合偏差評級。
“道德行為的一個非常重要的方面是避免(意圖,感知或意外)偏見,”他們說:“當數據分配不夠代表性的自然現像不夠代表性時,就會出現對服務的自然現象的代表性。服務的可能偏見的行為很難檢測到,如果不是從SCRATCH中使用AI服務,則很難處理和處理培訓數據,因為訓練數據集不可用。”