英國提議的監視攝像機實踐守則應符合三個原則,可以支持警察對面部認可的公平和道德使用。Anyvision。
根據“面部識別”應用程序寫的公開信,應用空數據庫提供給警察。這封信還提出了在執法環境中適用道德面部識別的最佳實踐。
Anyvision首席執行官Avi Golan指出:“面部識別的道德使用是一種棘手的識別,需要進行細微的討論。” “該討論的一部分必須解釋基礎面部識別系統如何工作,但是,同樣重要的是,討論還必須涉及警察部門如何使用技術,以及在其過程中內置哪些制衡。我們歡迎所有利益相關者涉及所有利益相關者來起草公平和平衡的監管。”
前監視攝像機專員和現任Corsight Executive Tony Porter批評了《實踐守則》的擬議更新是“輕的。 ”
Anyvision表明,對物體和麵部識別系統的廣泛採用已經超過了完全思考的盡職調查。根據公司宣布,只有在需要與預期的目的以及適當驗證的情況下,只有在需要它們的需要時,才應部署生物識別技術。
這意味著應使用空數據庫,足夠的數據和隱私保護措施以及改善操作盡職調查的生物識別技術,這三個原則Anyvision確定。保障措施包括客戶組織從頭開始創建的數據庫,以滿足其特定的安全需求,並確保捕獲的數據的加密系統。 Anyvision指出,它還包括一個“ GDPR模式”,該模式模糊了未出現在監視清單上的人們的面孔。
Anyvision說,過去在執法部門中缺乏盡職調查的某些面部識別的部署遭受了損害,調查過程不佳,導致不當逮捕,反映出這項技術。防止這些問題的方法是通過人類的審查和調查。
預測警務算法面臨可預測的批評
會議英國大法官和內政委員會同時,從新西蘭,比利時和美國的學者那裡聽到了有關新技術的應用,包括面部識別和預測算法在警務中的應用。
加州大學戴維斯分校法學院教授伊麗莎白·E·約翰告訴委員會,許多警察部門開始在2010年代使用預測性AI工具,但有些警察部門已經放棄甚至禁止了他們。這些步驟是Joh說的退縮的一部分,這是由於對技術的有效性和道德規範的關注而激發的。
Vrije Universiteit Brussels教授Rosamunde Elise Van Brakel表示,減輕與新技術相關的風險需要超越數據保護,並且對技術的社會影響的考慮應在其發展中進行投資。
奧塔哥大學教授Colin Gavaghan指出了人類審查的潛在局限性,尤其是如果在此過程中沒有足夠的時間應用,以及向全面審計和合規模型邁進的運動,這可能會揭示出僅在部署前才揭示的技術中的問題。