美國國家AI諮詢委員會準備建議該國聯邦執法機構的要求,以發布其對面部識別和其他高風險AI工具的年度摘要,即聯邦調查局報告。
該要求將是AI應用程序的清單他們已經有義務根據3月管理和預算辦公室發布的備忘錄提交。委員會成員說,額外的透明度將通過提供有關AI使用範圍和質量的更多有用信息來幫助美國人放心。
邁阿密警察局在今年早些時候的一個事實調查任務中告訴委員會成員,它每年使用面部認可約40次。
“例如,如果我們知道一個機構正在使用面部識別,一些觀察家會推測,這是向一種監視狀態的基本轉變,我們的運動將在我們到任何地方進行跟踪。” “還有其他人說,'好吧,不,只有在情況保持一致的情況下,就不會經常使用。'”
委員會成員和鵬Cro Benji Hutchinson說,製作報告對於機構來說應該很容易,但是協調和標準化可能更具挑戰性。他說,執法的不同層次,它們之間的數據共享協議以及已經存在的摩爾可能會使透明度的努力變得複雜。
該報告稱,執法小組委員會的建議還將包括在採用任何AI技術之前的性能測試,以及聯邦政府對學術研究人員可以訪問的身體相機錄像的州級檔案庫的投資。
Brookings Podcast預示了最近的發展
鑑於美國當前的AI和公共政策發展,布魯金斯機構的Techtank播客重新審視了2022年的一集,以應對人工智能對公民權利的影響。
國家博覽會住房聯盟的總裁兼首席執行官麗莎·賴斯(Lisa Rice)表示,“我們已經傳遞了幾個世紀的歧視法”,建立了固有的偏見,這些偏見仍然是一支力量,並創造了種族差異的環境,將AI部署到其中。她說,這些法律的歷史並沒有在課堂上傳授,而更多的人不相信他們的存在比對它們的了解。
賴斯還指出,國家博覽會住房聯盟當時的新框架基於“目的,過程和監視作為審計師的潛在工具。
弗吉尼亞大學居住和犯罪學家蕾妮·卡明斯(Renee Cummings)的數據活動家認為,需要問責制和透明度來推遲使用“黑人作為危險的數據點”的嵌入式使用。
卡明斯說,當AI部署在智能城市或執法申請中時,對技術和所涉及的機構的信任度較低的社區會受到監視,但尚未降低犯罪率。
賴斯說保護法律公民權利在書籍上,但是每個人都無法訴訟,“不幸的是,我們的聯邦監管機構無法跟上這項技術。”因此,需要不同機制來確保問責制,透明度,解釋性和可審核性卡明是指。
使用AI對聯邦機構的額外報告責任可能會導致這一轉變。
主持人妮可·特納·李(Nicole Turner Lee)博士詢問歐盟的特殊名稱是否高風險AI應用對於我們的法規來說,可能是一個很好的例子,卡明斯回答說可能是,因為“法規是我們尚未正確的事情”。
史詩般的失敗
電子隱私信息中心簡要審查最近政府問責辦公室的報告關於生物識別技術的擔憂,強調了向GAO報告的大多數影響是負面的,並指出已經證明了最佳面部識別算法有偏見。
比起積極的利益相關者向GAO報告了負面影響,但GAO對如何理解這些報告採取了明確的懷疑立場。
報告說:“但是,有關積極影響和負面影響的信息受到限制,因為利益相關者在很大程度上提供了與軼事或第一手經驗或潛在影響有關的例子。”
EPIC還宣稱,GAO發現“即使是最佳算法也保留了受控實驗室測試中的種族和性別偏見。”
該主張顯然提到了GAO報告中更加細微的段落,該段落指的是國家標準和技術研究所。 Gao寫道:“例如,在過去的四年中,面部識別的準確性已顯著提高,最佳性能係統顯示出實驗室測試中不同人群的虛假負率的變化很小。” “在性能差異下降但差異仍然存在的情況下,這是不正確的。”
Nist在2022年說,最佳算法的假陽性差異是“無法檢測到。 ”
對假陽性差異的最新評估1:n面部識別算法NIST顯示所有組的假陽性(或“匹配”)的速率低於數十個算法的0.005。