นักวิจัยเชิงวิชาการในอินเดียและสหรัฐอเมริกากำลังใช้แนวทางต่างๆ หลายวิธีในการจัดการกับความเป็นธรรมของข้อมูลไบโอเมตริกใบหน้าสำหรับผู้ที่มาจากกลุ่มประชากรที่แตกต่างกัน และชุดข้อมูลที่ใช้ในการฝึกอบรมอัลกอริทึมไบโอเมตริกซ์
นักวิจัย IIT พัฒนากรอบ FPR
นักวิจัยจาก Indian Institute of Technology (IIT) Jodhpur ได้พัฒนากรอบการทำงานเพื่อประเมินชุดข้อมูลบน “ความเป็นส่วนตัว และกฎระเบียบ” (FPR) โดยมีเป้าหมายเพื่อจัดการกับข้อกังวลเรื่องอคติและความบกพร่องทางจริยธรรมในระบบ AI ที่ปรับให้เหมาะกับบริบทของอินเดีย
ตามรายงานของ PTI ที่เผยแพร่โดยนิตยสารรายสัปดาห์Mayank Vatsa ศาสตราจารย์ที่ IIT Jodhpur และผู้เขียนรายงานการศึกษานี้บอกเป็นนัยว่า เมื่อสร้างระบบจดจำใบหน้าสำหรับอินเดียโดยเฉพาะ วิธีที่ดีที่สุดคือจัดลำดับความสำคัญของชุดข้อมูลที่สะท้อนถึงความหลากหลายของลักษณะใบหน้าและสีผิวที่มีอยู่ในภูมิภาค
กรอบการทำงานนี้ได้รับการพัฒนาร่วมกับผู้ทำงานร่วมกันระหว่างประเทศและเผยแพร่ใน Nature Machine Intelligence ในเดือนสิงหาคม โดยจะกำหนดคะแนน FPR ให้กับชุดข้อมูล โดยจะประเมินความเป็นธรรมโดยการประเมินการเป็นตัวแทนทางประชากรศาสตร์ ความเป็นส่วนตัวโดยการระบุช่องโหว่ที่อาจนำไปสู่การละเมิดข้อมูล และการปฏิบัติตามกฎระเบียบโดยการตรวจสอบการปฏิบัติตามมาตรฐานทางกฎหมายและจริยธรรม
นักวิจัยได้ตรวจสอบชุดข้อมูล 60 ชุด ซึ่งรวมถึงชุดข้อมูลไบโอเมตริกใบหน้า 52 ชุด และชุดข้อมูลเอ็กซ์เรย์หน้าอก 8 ชุด ซึ่งพบว่ามีข้อบกพร่องในวงกว้าง ชุดข้อมูลใบหน้าประมาณ 90 เปอร์เซ็นต์ได้คะแนนไม่ดี โดยส่วนใหญ่ไม่ผ่านมาตรฐานความเป็นธรรมและการปฏิบัติตามข้อกำหนด
SMU และ WVU สำรวจศักยภาพของข้อมูลสังเคราะห์
เนื่องจากแอปพลิเคชัน AI ในการจดจำใบหน้าขยายตัวไปทั่วโลก นักวิจัยจาก Southern Methodist University (SMU) และ West Virginia University (WVU) ต่างก็เป็นหัวหอกในความพยายามในการจัดการกับปัญหาที่มีมายาวนานในเรื่องอคติ ความยุติธรรม และความปลอดภัยในเทคโนโลยี
Corey Clark ผู้ช่วยศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์และรองผู้อำนวยการฝ่ายวิจัยที่ SMU Guildhall School of Engineering ของ SMU เป็นหัวหน้าทีมที่มุ่งเน้นการสร้างชุดข้อมูลสังเคราะห์ขนาดใหญ่สำหรับการฝึกอบรม AI แตกต่างจากชุดข้อมูลแบบดั้งเดิมที่ประกอบด้วยภาพมนุษย์จริง ซึ่งมักได้มาจากข้อตกลงที่ซับซ้อนตามหลักจริยธรรมหรือการคัดลอกเว็บ ชุดข้อมูลสังเคราะห์จะถูกสร้างขึ้นตามอัลกอริทึม ชุดข้อมูลเหล่านี้ Clark กล่าวถึงในYouTube อธิบายสามารถจำลองความเหมือนของมนุษย์ที่สมจริงสูงโดยไม่ต้องพึ่งพาบุคคลที่สามารถระบุตัวตนได้ โดยรักษาความเป็นส่วนตัวในขณะที่เปิดใช้งานการฝึกอบรมโมเดลขนาดใหญ่
ความเสี่ยงด้านเชื้อชาติและเพศอัลกอริธึมได้รับการวิพากษ์วิจารณ์และเน้นย้ำถึงความจำเป็นในการใช้เทคโนโลยีที่เท่าเทียมกัน
Nima Karimian ผู้ช่วยศาสตราจารย์ในภาควิชาวิทยาการคอมพิวเตอร์และวิศวกรรมไฟฟ้าของ Laneมหาวิทยาลัยเวสต์เวอร์จิเนียวิทยาลัยวิศวกรรมศาสตร์และทรัพยากรแร่ Benjamin M. Statler จาก Benjamin M. Statler เน้นย้ำว่าระบบไบโอเมตริกเผชิญกับช่องโหว่ด้านความปลอดภัยที่สำคัญ โดยเฉพาะอย่างยิ่งจากการโจมตีที่มุ่งเป้าไปที่ฮาร์ดแวร์ เช่น โทรศัพท์และแล็ปท็อป
ที่ WVU Karimian กำลังแก้ไขปัญหานี้ในมุมมองที่แตกต่าง โดยใช้ประโยชน์จากรางวัล NSF CAREER มูลค่า 632,000 ดอลลาร์สหรัฐฯ เพื่อสำรวจช่องโหว่ของ AI ต่อความลำเอียงและความล้มเหลวด้านความยุติธรรม งานของเขาเน้นย้ำถึงความเสี่ยงที่เกิดจากการใช้ชุดข้อมูลหรืออัลกอริธึมที่มีข้อบกพร่องในแอปพลิเคชันที่สำคัญ
“ในปัจจุบัน ยังไม่มีงานวิจัยใดที่กล่าวถึงอคติและความยุติธรรมในไบโอเมตริกป้องกันการปลอมแปลงโดยเฉพาะ” คาริเมียนกล่าวถึงความมีชีวิตชีวาหรือการตรวจจับการโจมตีด้วยการนำเสนอ (PAD)
“ส่วนหนึ่งของความท้าทายคือความจริงที่ว่าเทคนิคที่ล้ำสมัยในปัจจุบันสำหรับการฝึกอบรมซอฟต์แวร์จดจำใบหน้าในลักษณะที่บรรเทาอคติเกี่ยวข้องกับการใช้ไม่ใช่ภาพใบหน้าคนจริงๆ แต่การสร้างข้อมูลสังเคราะห์จะไม่ทำงานหากเราพยายามลดอคติในระบบป้องกันการปลอมแปลง เนื่องจากจุดรวมของระบบป้องกันการปลอมแปลงคือการแยกแยะระหว่างตัวอย่างปลอมและข้อมูลจริง”
คลาร์กมองว่าข้อมูลสังเคราะห์อาจเป็นส่วนสำคัญในการเอาชนะอุปสรรคต่อ AI ที่เท่าเทียมกัน ในขณะที่ Karimian กำลังพยายามอธิบายเหตุผลเบื้องหลังของอคติทางประชากรศาสตร์
หัวข้อบทความ
------