根據Ingvild Bode,丹麥南部戰爭研究中心的副教授,致命的自主武器系統(法律)的人工智能(法律)和其他軍事應用“可能會包含算法偏見”,這些算法可能會帶來“嚴重後果”。
“偏見可能會導致法律和道德危害,因為某個年齡段的人,性別或膚色的人可能會被錯誤地評估為戰鬥人員,”作品中的博德寫道,這是基於她向政府專家群體的演講(GGE)關於致命的自主武器系統。換句話說,由於算法偏見而導致的生物特徵識別識別錯誤可能會導致致命的無人機執行平民。
她旁邊的核心論文旁邊是一個令人恐懼的想法:“除了一些值得注意的例外,”她說,“主要是Unidir的2021年報告“軍事人工智將有性別嗎?”以及觀察家研究基金會和停止殺手機器人的運動,偏見問題尚未詳細介紹。 ”
然而,由於幾個原因,博德認為我們可以對軍事用例的AI偏見做出一些假設。她寫道:“ AI技術的許多創新潛力來自越來越多地與軍事演員合作的民用科技公司。” “從根本上講,使用的技術類型AI的平民和軍事應用,例如機器學習,是相同的,因此將受到對偏見的類似關注。 ”
在軍事AI範圍內的偏見
一個問題是,可以說,偏見根本不是一個問題,而是嵌入在算法模型的整個生命週期的各個階段。 Bode標識了三個關鍵的潛在偏差點:在用於培訓的數據集上;在設計和開發過程中做出的人類選擇中,可以將其烘烤到系統中;並在如何使用AI系統。
Bode寫道:“ AI技術通過反復和越來越廣泛地使用的方式獲得了新的含義和功能,以及潛在的偏見。” “這可以通過兩種方式發生:首先,僅通過採用以AI技術為特色的系統,其中包含的任何偏見都將被放大。其次,人們將對AI系統產生的輸出行動。”她指出自動化偏見是“人類過度依賴自動化系統並遵守此類技術產生的產出的趨勢”,這是軍事領域中的一個特別問題。
Bode引用研究喬伊·布拉姆維尼(Joy Buolamwini)和蒂姆尼特·蓋布魯(Timnit Gebru)面部分析軟件並發現這三個公認的男性面孔比女性更準確,並且通常在識別膚色較輕的人方面更好。
Bode說:“圍繞偏見的思考再次強調,這項技術不是中立的。” “技術是'時代的產品',它們反映了我們的社會。”由於偏見是社會固有的,因此它是AI固有的。 Bode尤其召集了AI系統發芽的STEM專業和工作文化中缺乏多樣性。她寫道:“即使在設計階段,也必須將緩解策略納入AI程序員如何思考(初始)建模參數。在這裡,仔細觀察正在統治和發展的科技公司很重要人工智能技術他們的特殊利益是因為這些利益可能會直接影響在設計階段做出的選擇。 ”
簡而言之,“技術解決方案不足以解決偏見。”
博德(Bode)通過重新強調說:“算法偏見的問題表明,我們應該將AI技術視為與人類判斷的某些東西,而是在整個人工智能技術的整個生命週期中以人類判斷的形式深深地融合在一起。”因此,我們是我們的技術 - 我們的技術就是我們。