นักวิจัยด้านวิชาการในอินเดียและสหรัฐอเมริกากำลังใช้วิธีการต่าง ๆ หลายวิธีในการจัดการกับความเป็นธรรมของ Biometrics สำหรับผู้คนจากประชากรที่แตกต่างกันและชุดข้อมูลที่ใช้ในการฝึกอบรมอัลกอริทึมไบโอเมตริกซ์
นักวิจัย IIT พัฒนากรอบ FPR
นักวิจัยจากสถาบันเทคโนโลยีแห่งอินเดีย (IIT) Jodhpur ได้พัฒนากรอบการทำงานเพื่อประเมินชุดข้อมูลใน“ขนาดความเป็นส่วนตัวและกฎระเบียบ” (FPR) โดยมีเป้าหมายที่จะจัดการกับความกังวลของอคติและการใช้งานทางจริยธรรมในระบบ AI ที่เหมาะสำหรับบริบทของอินเดีย
ตามรายงาน PTI ที่เผยแพร่โดยนิตยสารสัปดาห์, Mayank Vatsa, ศาสตราจารย์ที่ IIT Jodhpur และผู้เขียนที่เกี่ยวข้องของการศึกษาแสดงให้เห็นว่าเมื่อสร้างระบบการจดจำใบหน้าโดยเฉพาะสำหรับอินเดียจะเป็นการดีที่สุดที่จะจัดลำดับความสำคัญของชุดข้อมูลที่สะท้อนถึงความหลากหลายของคุณสมบัติใบหน้าและโทนสีผิวที่มีอยู่ในภูมิภาค
Framework ซึ่งพัฒนาขึ้นด้วยผู้ทำงานร่วมกันระหว่างประเทศและตีพิมพ์ใน Nature Machine Intelligence ในเดือนสิงหาคมกำหนดคะแนน FPR ให้กับชุดข้อมูล มันประเมินความเป็นธรรมโดยการประเมินการเป็นตัวแทนทางประชากรความเป็นส่วนตัวโดยการระบุช่องโหว่ที่อาจนำไปสู่การละเมิดข้อมูลและการปฏิบัติตามกฎระเบียบโดยการตรวจสอบการปฏิบัติตามมาตรฐานทางกฎหมายและจริยธรรม
นักวิจัยตรวจสอบชุดข้อมูล 60 ชุดรวมถึงชุดข้อมูลบนใบหน้าไบโอเมตริกซ์ 52 ชุดและชุดข้อมูล X-ray หน้าอกแปดชุดเพื่อค้นหาข้อบกพร่องที่แพร่หลาย ประมาณ 90 เปอร์เซ็นต์ของชุดข้อมูลใบหน้าทำคะแนนได้ไม่ดีโดยส่วนใหญ่ไม่สามารถปฏิบัติตามมาตรฐานความเป็นธรรมและการปฏิบัติตาม
SMU และ WVU สำรวจศักยภาพของข้อมูลสังเคราะห์
ในฐานะที่เป็นแอพพลิเคชั่น AI ในการรับรู้ใบหน้าขยายไปทั่วโลกนักวิจัยจาก Southern Methodist University (SMU) และ West Virginia University (WVU) ยังเป็นหัวหอกในการจัดการกับปัญหาอคติความเป็นธรรมและความปลอดภัยในเทคโนโลยีมายาวนาน
ที่โรงเรียนวิศวกรรมศาสตร์ของ SMU Corey Clark ผู้ช่วยศาสตราจารย์ด้านวิทยาศาสตร์คอมพิวเตอร์และรองผู้อำนวยการฝ่ายวิจัยที่ SMU Guildhall เป็นผู้นำทีมที่มุ่งเน้นไปที่การสร้างชุดข้อมูลสังเคราะห์ขนาดใหญ่สำหรับการฝึกอบรม AI ซึ่งแตกต่างจากชุดข้อมูลดั้งเดิมที่ประกอบด้วยภาพมนุษย์จริง - มักจะมาจากข้อตกลงที่ซับซ้อนทางจริยธรรมหรือการขูดเว็บ - ชุดข้อมูลสังเคราะห์ถูกสร้างขึ้นอัลกอริทึม ชุดข้อมูลเหล่านี้คลาร์กกล่าวถึงในกYouTube Exploserสามารถเลียนแบบอุปมาของมนุษย์ที่สมจริงอย่างสูงโดยไม่ขึ้นอยู่กับบุคคลที่สามารถระบุตัวตนได้รักษาความเป็นส่วนตัวในขณะที่เปิดใช้งานการฝึกอบรมแบบจำลองขนาดใหญ่
ความเสี่ยงของเชื้อชาติและเพศอัลกอริทึมได้วิจารณ์และเน้นถึงความจำเป็นในการใช้เทคโนโลยีที่เท่าเทียมกัน
Nima Karimian ผู้ช่วยศาสตราจารย์ในแผนกวิทยาศาสตร์คอมพิวเตอร์และวิศวกรรมไฟฟ้ามหาวิทยาลัยเวสต์เวอร์จิเนียBenjamin M. Statler College of Engineering และทรัพยากรแร่ธาตุเน้นว่าระบบไบโอเมตริกซ์ต้องเผชิญกับช่องโหว่ด้านความปลอดภัยที่สำคัญโดยเฉพาะอย่างยิ่งจากการโจมตีที่มุ่งเป้าไปที่ฮาร์ดแวร์เช่นโทรศัพท์และแล็ปท็อป
ที่ WVU Karimian กำลังแก้ไขปัญหาจากมุมมองที่แตกต่างกันใช้ประโยชน์จากรางวัลอาชีพ NSF $ 632,000 เพื่อสำรวจช่องโหว่ของ AI ต่อความลำเอียงและความล้มเหลวของความเป็นธรรม งานของเขาเน้นย้ำถึงความเสี่ยงที่มีอยู่ในการใช้ชุดข้อมูลที่มีข้อบกพร่องหรืออัลกอริทึมในแอปพลิเคชันที่สำคัญ
“ จนถึงปัจจุบันมีการวิจัยที่ไม่มีอยู่โดยเฉพาะที่กล่าวถึงความลำเอียงและความเป็นธรรมในการต่อต้านการสปอโปร์ไบโอเมตริกซ์” Karimian กล่าวซึ่งอ้างถึงการตรวจจับการโจมตีหรือการนำเสนอ (PAD)
“ ส่วนหนึ่งของความท้าทายคือความจริงที่ว่าเทคนิคที่ทันสมัยในปัจจุบันสำหรับการฝึกอบรมซอฟต์แวร์การจดจำใบหน้าในลักษณะที่ช่วยลดอคติที่เกี่ยวข้องกับการใช้งานไม่ใช่ภาพใบหน้าของคนจริง แต่การสร้างข้อมูลสังเคราะห์จะไม่ทำงานหากเราพยายามลดอคติในระบบป้องกันการปิดเนื่องจากจุดรวมของระบบป้องกันการปิดการปิดคือการแยกแยะความแตกต่างระหว่างตัวอย่างปลอมและข้อมูลของแท้”
คลาร์กมองว่าข้อมูลสังเคราะห์เป็นหัวใจสำคัญในการเอาชนะอุปสรรคต่อ AI ที่เท่าเทียมกันในขณะที่ Karimian กำลังพยายามอธิบายเหตุผลพื้นฐานสำหรับอคติทางประชากร
หัวข้อบทความ
------