有一個小但越來越長的大廳由面部識別技術導致錯誤逮捕的人們組成。其中包括羅伯特·威廉姆斯(Robert Williams),他是一個美國人警察面部識別在聯邦盜竊案中,誤認為他是嫌疑人。
威廉姆斯現在呼籲愛爾蘭的警察部隊取消其部署生物識別技術的計劃。在在都柏林舉行的一個活動中發表的評論愛爾蘭公民自由委員會(ICCL)並在發佈時發行,威廉姆斯指出了使用容易識別有色人種的工具所帶來的風險。
“聯邦研究表明面部識別系統威廉姆斯說:“在美國,誤認為亞洲人和黑人的頻率是白人的100倍。在美國,我們正在努力消除FRT已經造成的危害。在愛爾蘭,您有機會不首先介紹它。我希望您的政府能聽到像我這樣的經驗,並在將FRT進行警務之前三思而後行。”
威廉姆斯指2019年NIST的報告從那以後更新,表明某些算法誤認為黑人或東亞的可能性比白色面孔高10到100倍。但是,並非所有評估的算法都在商業生產中,而其他人則發現人口統計學之間的性能差異是不可察覺的,促使NIST生物識別標準和測試負責人Patrick Grother敦促那些實施面部識別的人具體評估偏見。
考慮到威廉姆斯對美國的聲明也可能會辯論面部識別技術由全國各地的執法機構組成。雖然愛爾蘭警察仍然可以決定傳遞面部識別,但這是不可能的。政府正在起草立法,這將使Gardaí進入FRT。和鄰近英國的警察已經接受了面部識別堅定不移。
這也不只是島嶼的事。瑞典的警察目前正在推動違反AI法案的限制,併計劃部署1:n面部識別在公共場所。加拿大警察最近簽約族裔提供面部識別服務。
幾乎每個人的面部識別都在美國被誤認為黑色
然而,在大西洋的兩邊都繼續進行倒退。發布說美國進步中心(CAP),法律規定的律師民權委員會以及其他14個民權和倡導組織已向國立司法研究所(NIJ)關於在即將發布的有關此事的報告之前,關於NIJ在刑事司法系統中使用AI的信息。
這封信不拉力。
它說:“黑人和其他有色人種面臨著嚴重的民權危害,這是執法人員使用AI的。” “執法機構使用的算法技術複製並加強了現有的種族偏見和歧視;警務技術,例如面部識別,風險評估和預測性警務工具通常可以實現和加速這一趨勢。 ”
聯盟說,偏見是“融入了發展和部署的”AI驅動的生物識別工具。它指責資料庫用於訓練AI發動機 - “大量的數據充滿了不准確的數據,並反映了現有的社會偏見和不平等。”此外,統計數據表明,使用面部識別的人類警察也容易出現偏見。
這封信說:“例如,最近的一份報告發現,新奧爾良警察局使用面部識別技術(“ FRT”)來識別黑人個人;他們在90%的時間內將這項技術部署在黑人身上。”
全部但是一個在美國七個人中面部識別錯誤識別錯誤被捕的是黑色。
種族偏見不是唯一的問題。聯盟還說,缺乏透明度。 “執法機構在保密中籠罩人工智能技術- 從警察監視到可疑身份和監獄管理工具,沒有有意義的公眾意見或監督。 ”沒有透明度,就沒有問責制。
這封信以四個建議在即將發布的報告中提出了四個建議。他們閱讀的內容更像是要求。
首先,應禁止執法人員使用種族歧視技術,包括FRT和預測性警務工具。 ”
其次,“應在公共場所和任何可以放鬆行使第一修正案權利的環境中使用算法監視工具的使用。”
第三,“應要求對用於執法目的的AI技術進行獨立的前部和後部審核。”
最後,“應在刑事案件中向被告披露執法使用AI技術。”