一個專業調查《華盛頓郵報》透露,美國警方經常使用臉部辨識作為逮捕的唯一依據,這違反了要求警察有合理理由和確鑿證據的內部政策。
《華盛頓郵報》的調查結果還揭露了兩起先前未報道的案件,這些案件中的人在被確認身份後被錯誤逮捕,強調了生物辨識技術在執法用例中的一個主要潛在缺陷:必須相信警察會合乎道德地使用它。
然而。 「全國各地的執法機構正在使用《華盛頓郵報》稱:“這些工具的使用方式從來都不是為了在沒有其他證據的情況下尋找和逮捕嫌疑人的捷徑。”
記者道格拉斯·麥克米蘭(Douglas MacMillan)、大衛·奧瓦勒(David Ovalle) 和亞倫·謝弗(Aaron Schaffer) 指出,「75 個部門使用臉部辨識技術,其中40 個部門共享導致逮捕的案件記錄。其中 17 人未能提供足夠的細節來辨別官員是否試圖證實」。
其餘23個部門中有詳細記錄,他們發現“跨越 12 個州的 15 個部門逮捕了通過人工智能匹配識別的嫌疑人,但沒有任何獨立證據將他們與犯罪聯繫起來。”
此外,“一些使用該技術的執法人員似乎放棄了傳統的警務標準,並將軟體建議視為事實。”
「自動化偏差」是一個問題;警察工作鬆懈也是如此
該報告詳細分析了警方在八個已知的失敗事件中的失誤,其中包括未能檢查不在場證明和公然無視嫌疑人的身體特徵(後者是孕婦的情況)。趨勢很明顯,《華盛頓郵報》表示這些例子「可能只是問題的一小部分」。
這篇文章引用了紐約大學法學院警務項目參謀長凱蒂·金賽 (Katie Kinsey) 的話,幾乎沒有抓住自己的要點,她指出:“在使用清晰對比照片的實驗室測試中表現近乎完美”,但尚未接受“現實世界中該技術在警方通常如何使用該技術的準確性方面的獨立測試——監控圖像質量較低,警察從一個候選人中挑選一名候選人”。可能的匹配列表。”
金賽說,正因為如此,很難知道軟體出錯的頻率。
但她的指責是錯的。正如《華盛頓郵報》的調查所表明的那樣,這並不是通常會出錯,但警察。報告指出,研究表明“使用人工智慧工具的人可能會屈服於‘自動化偏見’,即盲目信任強大軟體做出的決策,而忽略其風險和局限性。”
如果有什麼不同的話,那就是該軟體的功能太出色了。顆粒狀的可疑影像貫穿其中因為照片陣容很可能會找到與嫌疑犯非常相似的人。愛荷華州立大學研究錯誤目擊證人身份的心理學家加里·威爾斯表示,在這種情況下,當向受害者展示這些照片時,他們很有可能製作身份證件,即使它是假的。
ACLU:人工智慧起草警方報告不是一個好主意
解決這個問題取決於支撐更大的全球生態系統的相同關鍵要素:監管和信任。然而,誰來監管警察是一個超越生物辨識技術的問題。
最近的一個報告美國公民自由聯盟(ACLU) 指出,“警察部門正在採用使用人工智慧為警官起草警察報告的軟體產品”,並表示這是一個非常糟糕的主意:“人工智慧有許多潛在功能,但沒有理由用它來取代人工智慧的創造警官主觀經驗的記錄。
其他組織也對當地可能發生侵犯公民權利和人權的行為表示擔憂。,包括 DEA 和 FBI 的生物辨識臉部辨識。
以及一份長達 137 頁的聯邦聯合機構報告根據美國國土安全部 (DHS)、司法部 (DOJ) 和白宮科技政策辦公室的說法,本月發布的《生物辨識技術的雙重影響》提出了生物辨識技術的雙重影響。
在每種情況下,科技都是人類決策的推動者。為了,有管理其使用的標準、測試和認證。規範人類行為要困難得多,尤其是那些掌握權力的人。演算法有其缺陷,但它們通常比人類更容易預測,並且在某人的自由受到威脅時不太可能跳過一兩步。
文章主題
||||||||