การศึกษาที่มีอิทธิพลจากปี 2561 และ 2562 ยังคงเป็นสถานที่ที่โดดเด่นในหลาย ๆ รายงานเกี่ยวกับความแตกต่างทางประชากรศาสตร์หรืออคติในการใช้งานทางชีวภาพใบหน้าแม้จะมีความเกี่ยวข้องลดลงอย่างมากและแหล่งข้อมูลปัจจุบันที่ดีขึ้นอย่างเห็นได้ชัด
รายงานจากกฎหมาย Futures และ Mijente อ้างว่ากระทรวงความมั่นคงแห่งมาตุภูมิของสหรัฐอเมริกาและหน่วยงานของ บริษัท กำลังใช้ปัญญาประดิษฐ์สำหรับแอพพลิเคชั่นระบบตรวจคนเข้าเมืองที่หลากหลายซึ่งมีผลกระทบอย่างมากต่อผู้คนที่อ่อนแอ พวกเขากำลังทำเช่นนั้นด้วยการกำกับดูแลเพียงเล็กน้อยและในบางกรณีในรูปแบบที่ไม่ปฏิบัติตามนโยบายของรัฐบาลกลางรวมถึงกฎของ DHS
54 หน้า "การเนรเทศโดยอัตโนมัติ: ปัญญาประดิษฐ์ที่อยู่เบื้องหลังระบอบการบังคับใช้การเข้าเมืองของกระทรวงความมั่นคงแห่งมาตุภูมิ” รายงานระบุว่ากระบวนการ AI ของ DHS เพิ่มความเสี่ยงของอคติในการตัดสินใจระบบได้เลือกปฏิบัติต่อผู้อพยพชาวผิวดำและมุสลิมแล้วกลุ่มกล่าวและระบบ AI ที่ได้รับการฝึกฝนเกี่ยวกับข้อมูลลำเอียงทำให้สถานการณ์เลวร้ายลง
การรับรู้ใบหน้าได้รับความสนใจเป็นจำนวนมากในรายงานระหว่างเครื่องมือศุลกากรและการป้องกันชายแดน (CBP's)แอป CBPONEการตรวจคนเข้าเมืองและการบังคับใช้ศุลกากร (น้ำแข็ง)สัญญากับ Clearview AIและน้ำแข็งSmartLinkแอปพลิเคชันมือถือ
รายละเอียดที่ไม่สะดวก
ข้อโต้แย้งจำนวนมากได้รับการสนับสนุนจากการอ้างอิงที่มีสิทธิ์อย่างกว้างขวางและจุดโดยรวมอาจถูกต้อง
เหตุใดย่อหน้าแรกเกี่ยวกับการใช้ Biometrics ของ DHS อ้างถึงการศึกษา NIST รุ่น 2019 ที่ได้รับการปรับปรุงในปี 2565
บางทีการอ้างอิงอาจใช้ด้วยเหตุผลเดียวกับรายงาน 2019ใช้เพื่อพูดคุยเกี่ยวกับเทคโนโลยีการจดจำใบหน้าแม้คำเตือนจากผู้เขียนนำรายงานต่อต้านการทำเช่นนั้น
ที่2022 เวอร์ชันจากการประเมินความแตกต่างทางประชากรของ NIST ใน Biometrics Face แสดงให้เห็นว่าอัลกอริทึมส่วนใหญ่ยังคงส่งคืนอัตราความผิดพลาดที่สูงขึ้นสำหรับคนผิวคล้ำ นอกจากนี้ยังแสดงให้เห็นถึงการปรับปรุงที่สำคัญระหว่างอัลกอริทึมหลายอย่างและอัตราความผิดพลาดเล็กน้อยหรือไม่มีเลยระหว่างผู้ที่มีผิวที่เบาและเข้มขึ้นสำหรับอัลกอริทึมบางอย่าง
รายงานแยกต่างหากจากเพียงแค่ความปลอดภัยทำให้ข้อโต้แย้งที่คล้ายกันเกี่ยวกับการใช้ AI โดยหน่วยงานตรวจคนเข้าเมืองของสหรัฐที่ชายแดน -AI ที่ชายแดน: ผลกระทบทางเชื้อชาติและผลกระทบ” ชี้ให้เห็นว่าจำเป็นต้องมีการปฏิรูปตำรวจเพื่อหลีกเลี่ยงการละเมิดสิทธิมนุษยชน AI ที่ทวีความรุนแรงขึ้น
ในทำนองเดียวกันกับรายงานข้างต้นเพียงแค่ความปลอดภัยระบุว่า“ อัลกอริทึมเหล่านี้พบเพื่อระบุใบหน้าสีดำอย่างไม่ถูกต้องในอัตรา 10 ถึง 100 เท่าของใบหน้าสีขาว” รายงานที่เชื่อมโยงหมายถึงการประเมิน NIST ในปี 2019 เดียวกัน แต่อย่างพูดออกไป“ หลาย ๆ ” จากด้านหน้า“ อัลกอริทึมเหล่านี้” การรวมตัวรอบคัดเลือกนั้นจะมีจำนวนการรับทราบว่าหาก DHS ไม่ได้ใช้อัลกอริทึมอัตราความผิดพลาดที่ระบุไว้จะใช้กับสถิติจะไม่นำมาใช้
อีกครั้งประเด็นโดยรวมอาจถูกต้อง แต่การโต้แย้งนั้นอ่อนแอลงจากการอ้างอิงที่น่าสังเวชไปยังหลักฐานที่เลือกตามความสะดวกสบายทางอุดมการณ์
รูปแบบเดียวกันได้รับการเห็นซ้ำ ๆ กับกลุ่มผู้สนับสนุนสิทธิบ่อยเกินไปการเลือกหลักฐานนั่นคือบิดเบือนความจริงหรือไม่เกี่ยวข้อง-
ข้อโต้แย้งเกี่ยวกับการใช้ AI สำหรับการควบคุมชายแดนมีความสำคัญและสมควรที่จะได้รับการพิจารณาในแง่ของหลักฐานที่ดีที่สุดที่มีอยู่
หัวข้อบทความ
ความแม่นยำ-ACLU-อคติไบโอเมตริกซ์-ไบโอเมตริกซ์-ความปลอดภัยชายแดน-DHS-การจดจำใบหน้า-คนที่มีความสำคัญ