歐洲隱私的擁護者認為,政府認為更多的技術可以使AI公平對其所服務的所有人類都是錯誤的。但是,如果決策者堅持這一觀點,那麼AI懷疑論者的聯盟就會提出一些建議。
該集團稱為歐洲數字權利或埃德里,已經發布了一份報告,該報告基於以下前提,即對AI算法和數據集(例如面部識別系統中的數據集)僅在技術公司手中進一步鞏固治理。
根據報告,政府領導人“必須應對普遍使用AI系統引起的權力失衡的根本原因。”
根據埃德里(Edri)的說法,辯護是一個過於簡單的建議報告,稱為“超越辯護:調節AI及其不平等”。
這意味著使用技術設計來解決與社會動力學精細集成的複雜技術問題。這是最近歐盟政策中的“解決歧視人工智能的主要手段”。
同樣令人不安的是,通常由創建有偏見的程序開始的人員和過程進行辯護。
越來越多的思考正在涉及AI如何有效和道德,並不是所有的都涉及辯護。
美國政府責任辦公室已創建四個原則例如,它自己的。美國國家標準技術研究所也被認為在管理AI偏見方面。這並不是說兩組想法都獲得了很多交易。
該報告的作者表明,更多,更有信息的公共政策需要對AI進行更大的控制權。 Edri是一個十年曆史的主題專家,非政府組織,政策擁護者和倡導者。
向可能會繼續為生物識別系統和其他人尋求陳述解決方案的立法者提供了一些建議。
他們中的大多數要求領導者在負責消除偏見的技術行業方面變得良好,並無限期地了解。
例如,埃德里(Edri)表示,政府必須清楚地定義與AI相關的社會問題,發行解決方案標準,為已知的技術局限性創建指導並為正在進行的跨學科研究提供資金。
該準則還呼籲使立法者和監管機構與擁有收入儲備的公司的強大遊說活動中絕對,超越了商業歷史上所見。