奧塔哥大學的一對學者呼籲新西蘭政府建立一個新的獨立監管機構來監視人工智能技術,並解決與政府機構使用相關的風險。在帖子中對話博士後研究員約翰·澤利裡(John Zerilli)和法律和道德副教授科林·加瓦格(Colin Gavaghan)說,該國是政府AI的領導者,但必須解決對透明度,有意義的人類控制,數據保護和偏見的擔憂。
他們的92頁報告(PDF)考慮了新西蘭法律和政府AI實踐的現狀。研究人員建議創建政府使用的預測算法的公共登記冊,也許是解釋系統,並考慮了推斷數據的法律地位。還指出了基於“骯髒數據”的偏見和歧視的風險,以及通過在AI工具的公開評估中包括特定子人群的結果來減輕這種風險。
從非營利組織中,還涉及“算法偏見檢測和緩解算法偏見檢測和緩解:減少消費者危害的最佳實踐和政策”的報告。布魯金斯機構。布魯金斯報告認為,運營商和其他利益相關者需要主動解決導致偏見的因素。
為了幫助這一努力,提出了“算法衛生”的框架,確定了一些特定的偏見原因,以及與之打交道的最佳實踐。作者寫道,該報告的目的是將計算機程序員和行業的關注與政策制定者和民間社會並列。來自行業,學術界和民間社會的40多名思想領袖為報告和框架做出了貢獻。
建議包括更新法律,以適用於數字實踐,實施一組自我調節的最佳實踐以及提高算法素養並促進行業與民間社會之間的反饋的系統。
該報告列出了算法偏見的例子,描述了偏見檢測策略,並討論了公平與準確性之間的權衡。它強調了道德框架的重要性,並為緩解偏見提供了建議。還提供了一個由16個問題組成的偏見影響聲明的模板。
在總而言之,作者警告說,在美國刑事司法系統中使用算法可能會使偏見永存,並為非裔美國人和窮人判處更長的徒刑。
作者寫道:“正如論文中概述的那樣,這些類型的算法應關注是否沒有一個過程將技術的勤奮,公平性和公平性從設計到執行。” “也就是說,當算法是負責任地設計時,它們可能會避免放大的系統歧視和不道德應用的不幸後果。”
在過去的幾年中,潛在的AI偏見問題受到了越來越多的關注,最近的《福布斯》社論表明,一些公司可能需要考慮創建“首席偏見官”位置對抗它。