อดีตรองผู้ช่วยประธานและรองผู้อำนวยการสภานโยบายในประเทศทำเนียบขาวกล่าวในสถาบันบรูกกิ้งใหม่คำอธิบายสภาคองเกรสควรออกกฎหมายเพื่อระบุว่าการเลือกปฏิบัติของ AI“ ส่งผลกระทบต่อสิทธิและโอกาสของผู้คนอย่างไร”
มี“ การเลือกปฏิบัติอัลกอริทึม” ในที่ทำงานตลาดการดูแลสุขภาพและระบบความยุติธรรมทางอาญาเขียน Chiraag Bains ซึ่งเป็นเพื่อนอาวุโสที่ไม่ได้อยู่กับ Brookings Metro และที่ปรึกษากองทุนประชาธิปไตยที่เชี่ยวชาญใน AI ประชาธิปไตยและโปรแกรมของรัฐบาล
“ AI สามารถและให้ผลลัพธ์ที่เลือกปฏิบัติได้” Bains กล่าวโดยสังเกตว่า“ AI ทำงานโดยใช้อัลกอริทึมในการประมวลผลและระบุรูปแบบในข้อมูลจำนวนมากจากนั้นใช้รูปแบบเหล่านั้นเพื่อทำการคาดการณ์หรือการตัดสินใจเมื่อได้รับข้อมูลใหม่”
การเลือกปฏิบัติ AI หรือที่เรียกว่าการเลือกปฏิบัติอัลกอริทึมคือเมื่อระบบอัตโนมัติปฏิบัติต่อผู้คนที่แตกต่างกันหรือส่งผลกระทบต่อพวกเขาในลักษณะที่ไม่ยุติธรรมและขึ้นอยู่กับลักษณะที่ได้รับการป้องกัน ซึ่งอาจรวมถึงเชื้อชาติสีเชื้อชาติเพศศาสนาอายุที่มาแห่งชาติความพิการสถานะทหารผ่านศึกหรือข้อมูลทางพันธุกรรม
เพื่อป้องกันการเลือกปฏิบัติของ AI เป็นที่ยอมรับกันอย่างกว้างขวางว่านักออกแบบนักพัฒนาและตัวปรับใช้ระบบอัตโนมัติควรใช้มาตรการเชิงรุกเช่นการใช้ข้อมูลตัวแทนเพื่อให้มั่นใจว่าการเข้าถึงผู้พิการการทดสอบและบรรเทาความไม่เท่าเทียมก่อนและหลังการปรับใช้และมีการกำกับดูแลองค์กรที่ชัดเจน
Bains กล่าวว่า“ นักวิจัยและนักเทคโนโลยีได้แสดงให้เห็นซ้ำ ๆ ว่าระบบอัลกอริทึมสามารถสร้างผลลัพธ์ที่เลือกปฏิบัติได้บางครั้งนี่เป็นผลมาจากการฝึกอบรมเกี่ยวกับข้อมูลที่ไม่ได้เป็นตัวแทนในกรณีอื่น ๆ อัลกอริทึมจะค้นหาและทำซ้ำรูปแบบที่ซ่อนอยู่ของการเลือกปฏิบัติของมนุษย์ที่พบในข้อมูลการฝึกอบรม”
“ ในขณะที่การพัฒนาด้านปัญญาประดิษฐ์เร่งความเร็ว” Bains กล่าวว่า“ ผู้สนับสนุนได้มุ่งเน้นไปที่ศักยภาพของเทคโนโลยีที่จะทำให้เกิดหรือการเลือกปฏิบัติที่รุนแรงขึ้นผู้กำหนดนโยบายกำลังพิจารณาโฮสต์ของการปกป้องจากการเปิดเผยและการตรวจสอบผลิตภัณฑ์ผลกระทบที่แตกต่างกัน-
กฎหมายผลกระทบที่แตกต่างกันให้การเยียวยาทางกฎหมายสำหรับผู้ที่ตกเป็นเหยื่อของการเลือกปฏิบัติตามเชื้อชาติเพศหรือลักษณะที่ได้รับความคุ้มครองอื่น
“ รูปแบบของความรับผิดนี้จะมีความสำคัญอย่างยิ่งต่อการป้องกันการเลือกปฏิบัติในโลกที่การตัดสินใจที่มีสัดส่วนสูงเกิดขึ้นโดยอัลกอริทึมที่ซับซ้อนมากขึ้น” Bains กล่าวโดยสังเกตว่า“ การป้องกันผลกระทบที่แตกต่างกันในปัจจุบันไม่ได้ขึ้นอยู่กับงาน
ภายใต้กฎหมายของสหรัฐอเมริกา 26 หน่วยงานระดมทุนของรัฐบาลกลางมีกฎระเบียบที่ VI Title VI ซึ่งรวมถึงบทบัญญัติที่กล่าวถึงผลกระทบที่แตกต่างกันหรือผลกระทบทางกฎหมายที่แตกต่างกัน
ตามในแผนกสิทธิพลเมืองของกระทรวงยุติธรรม (DOJ) ของสหรัฐอเมริกา” การวิจัยทางจิตวิทยาทางสังคมที่เพิ่มขึ้นได้ยืนยันถึงความจำเป็นในการใช้เครื่องมือทางกฎหมายที่จัดการกับผลกระทบที่แตกต่างกันการวิจัยนี้แสดงให้เห็นว่าอคติโดยนัยต่อผู้คนที่มีสียังคงเป็นปัญหาที่แพร่หลาย
DOJ กล่าวว่า“ เนื่องจากแรงจูงใจของแต่ละบุคคลอาจเป็นเรื่องยากที่จะพิสูจน์โดยตรงสภาคองเกรสจึงได้รับการพิสูจน์ว่ามีผลกระทบต่อการเลือกปฏิบัติเพียงอย่างเดียวซึ่งเป็นวิธีการเอาชนะการปฏิบัติที่เลือกปฏิบัติศาลฎีกาจึงได้รับการยอมรับว่าผลกระทบที่แตกต่างกันภายใต้กฎหมายสิทธิพลเมืองต่างๆ
สำนักงานนโยบายวิทยาศาสตร์และเทคโนโลยีทำเนียบขาว (OSTP)พิมพ์เขียวสำหรับ AI Bill of Rightsกล่าวว่า“ ขึ้นอยู่กับสถานการณ์เฉพาะ…การเลือกปฏิบัติอัลกอริทึมอาจเป็นการละเมิดการคุ้มครองทางกฎหมายนักออกแบบนักพัฒนาและระบบระบบอัตโนมัติควรใช้มาตรการเชิงรุกและต่อเนื่องเพื่อปกป้องบุคคลและชุมชนจากการเลือกใช้ข้อมูลการใช้งานและการออกแบบ สำหรับคนพิการในการออกแบบและพัฒนาการปรับใช้ล่วงหน้าและการทดสอบความไม่เท่าเทียมอย่างต่อเนื่องและการบรรเทาผลกระทบและการกำกับดูแลขององค์กรที่ชัดเจน”
โมเดลภาษาขนาดใหญ่ (LLM) AI“ นักพัฒนาได้พยายามลดลงอคติด้วยวิธีการฝึกอบรมหลังการฝึกอบรมเช่นการปรับจูนและการเรียนรู้เสริมแรงจากข้อเสนอแนะของมนุษย์” Bains กล่าว แต่เสริมว่า“ การวิจัยก่อนกำหนดบ่งชี้ว่า LLMs ให้ผลลัพธ์ที่ตายตัวและมีอคติอย่างอื่น”
“ ตัวอย่างเช่นในการศึกษาครั้งหนึ่ง LLMs มีแนวโน้มที่จะเชื่อมโยงผู้หญิงที่ประสบความสำเร็จกับความเห็นอกเห็นใจและความอดทนและผู้ชายที่ประสบความสำเร็จด้วยความรู้และสติปัญญา” Bains ชี้ให้เห็น และในการศึกษาอื่น LLM“ ชาวมุสลิมที่เกี่ยวข้องกับการก่อการร้ายและความรุนแรงในอีกเรื่องหนึ่ง LLMs เกี่ยวข้องกับคำว่า 'ดำ' กับอาวุธและคำศัพท์ที่มีความรู้สึกผิดในขณะที่เชื่อมโยงคำว่า 'สีขาว' กับรายการและคำที่ไร้เดียงสา
“ การทดสอบตามสถานการณ์ได้แนะนำว่าการเชื่อมโยงดังกล่าวอาจทำให้เกิดการเลือกปฏิบัติเนื่องจาก LLMs ถูกรวมเข้ากับระบบการตัดสินใจในโลกแห่งความเป็นจริง” Bains เตือน
“ ความรับผิดต่อผลกระทบที่แตกต่างกันช่วยลดการเลือกปฏิบัติที่ไม่ได้ตั้งใจ แต่ไม่ยุติธรรม” ซึ่งเป็น“ ความเสี่ยงกับ AI อย่างแม่นยำ” และเหตุผล“ เราต้องการความรับผิดต่อผลกระทบที่แตกต่างกัน” Bains กล่าว “ ผลกระทบที่แตกต่างกันช่วยให้เราสามารถจัดการกับการเลือกปฏิบัติที่เป็นอันตรายและไม่จำเป็นจำนวนมากซึ่งเป็นผลมาจากนโยบายที่ไร้ความคิดหรือกว้างเกินไป”
“ ผลกระทบที่แตกต่างกันช่วยให้เราสามารถป้องกันและจัดการกับการเลือกปฏิบัติอัลกอริทึม” ผู้สนับสนุน Bains แต่กล่าวว่า“ กฎหมายผลกระทบที่แตกต่างกันที่มีอยู่นั้นไม่เพียงพอที่จะจัดการกับการเลือกปฏิบัติอัลกอริธึม
Bains ให้เหตุผลว่าสภาคองเกรสจำเป็นต้องผ่านกฎหมาย“ เพื่อเสริมสร้างการป้องกันผลกระทบและการบังคับใช้ที่แตกต่างกันเขากล่าวว่า“ สภาคองเกรสควรดำเนินการอย่างน้อยสามขั้นตอนเพื่อเตรียมระบอบการปกครองทางกฎหมายของเราให้ดีขึ้นเพื่อยับยั้งและต่อสู้กับการเลือกปฏิบัติอัลกอริทึม”
“ ก่อนอื่น” เขากล่าว“ สภาคองเกรสควรออกกฎหมายของรัฐบาลกลางที่ห้ามมิให้มีการเลือกปฏิบัติ - โดยเฉพาะรวมถึงผลกระทบที่แตกต่างกัน - ในการปรับใช้ AI และเทคโนโลยีอัตโนมัติอื่น ๆ กฎหมายดังกล่าวควรครอบคลุมการใช้อัลกอริทึมเพื่อตัดสินใจหรือแจ้งการตัดสินใจว่าส่งผลกระทบต่อสิทธิและโอกาสของผู้คน”
ประการที่สองสภาคองเกรสจำเป็นต้องประมวลผล“ สิทธิส่วนบุคคลในการดำเนินการเพื่ออนุญาตให้บุคคลที่ได้รับความเดือดร้อนจากการเลือกปฏิบัติเพื่อยื่นฟ้อง” และ“ ที่สามสภาคองเกรสควรเพิ่มเงินทุนสำหรับหน่วยงานบังคับใช้ของรัฐบาลกลาง”
Bains กล่าวว่าเนื่องจาก“ หน่วยงานใหม่และทรัพยากรเหล่านี้ไม่ใช่ยาครอบจักรวาลสำหรับการเลือกปฏิบัติอัลกอริทึมเราจะต้องมีกฎหมายความเป็นส่วนตัวที่ครอบคลุมมาตรฐานการกำกับดูแล AI ข้อกำหนดความโปร่งใสและมาตรการอื่น ๆ ”
“ เราต้องการผู้กำหนดนโยบายของเราเพื่อเริ่มต้นและจัดลำดับความสำคัญของกฎความรับผิดที่แข็งแกร่ง” เขากล่าว และ“ เราต้องเสริมสร้างความสามารถของระบบกฎหมายของเราในการป้องกันการเลือกปฏิบัติก่อนที่ AI จะถูกรวมเข้ากับระบบที่ส่งผลกระทบต่อสิทธิในเศรษฐกิจของเราประธานาธิบดีและสภาคองเกรสคนต่อไปควรจัดลำดับความสำคัญของกฎผลกระทบที่แตกต่างกันอย่างครอบคลุมสำหรับ AI ในต้นปี 2568”
หัวข้อบทความ
AI-การเลือกปฏิบัติอัลกอริทึม-อัลกอริทึม-อคติไบโอเมตริกซ์-ความเป็นส่วนตัวของข้อมูล-ความยุติธรรมทางประชากรศาสตร์-การออกกฎหมาย-AI รับผิดชอบ