การควบคุมโดยมนุษย์มากขึ้น การอุทธรณ์ที่ง่ายขึ้นต่อ "การตัดสินใจอัลกอริทึมของฝ่ายบริหาร" ความโปร่งใสมากขึ้นเกี่ยวกับอัลกอริทึมที่ใช้... ในรายงาน หน่วยงานอิสระที่รับผิดชอบในการปกป้องสิทธิ์ของเราส่งเสียงเตือนเกี่ยวกับการใช้ AI และอัลกอริทึมที่เพิ่มขึ้นโดยฝ่ายบริหาร
การคำนวณภาษีเงินได้, สิทธิประโยชน์ทางสังคมของ CAF,ต่อสู้กับการฉ้อโกง, การสนับสนุนผู้หางาน… ในขณะที่ฝ่ายบริหารฝรั่งเศสมีการใช้มากขึ้นอัลกอริธึมและปัญญาประดิษฐ์ ผู้พิทักษ์สิทธิกำลังส่งเสียงเตือน ในกรายงานที่เผยแพร่วันพุธที่ 13 พฤศจิกายนหน่วยงานบริหารอิสระนี้มีหน้าที่ปกป้องสิทธิและเสรีภาพของเราในหลายภาคส่วน”มีความกังวลเกี่ยวกับความเสี่ยงที่ "อัลกอริทึม" ของบริการสาธารณะก่อให้เกิดต่อสิทธิของผู้ใช้สบริการสาธารณะ-
อัลกอริธึมและระบบ AI ถูกนำมาใช้มากขึ้นเพื่อ”ทำให้เป็นอัตโนมัติ สร้างมาตรฐาน หรือแม้แต่ปรับปรุง และ/หรือเร่งกระบวนการบางอย่างหรือขั้นตอนการบริหารบางขั้นตอน- นอกเหนือจากการใช้แชทบอทเพื่อตอบคำถามของผู้ใช้โดยตรงแล้ว บริการสาธารณะบางแห่งยังใช้ระบบ AI ในหลายภาคส่วน เช่น การช่วยเหลือทางสังคม (CAF) ภาษี (การคำนวณภาษีเงินได้) รายได้) การแนะแนวการศึกษา (ParcourSup) หรือการติดตามผล ผู้หางาน (France Travail)
อ่านเพิ่มเติม:France Travail (เดิมชื่อ Pôle emploi) แยกออกมาโดย Quadrature du Net สำหรับการใช้อัลกอริทึม
ความเสี่ยงต่อสิทธิและเสรีภาพของเรา?
อย่างไรก็ตาม ความจริงที่ว่าการตัดสินใจด้านการบริหารส่วนบุคคลที่เพิ่มขึ้นจำนวนมากขึ้นในปัจจุบันนั้นขึ้นอยู่กับ "ผลลัพธ์ที่ส่งโดยอัลกอริธึมหรือระบบ AI» ไม่ได้ปราศจากความเสี่ยงต่อสิทธิและเสรีภาพของเรา Claire Hédon ผู้พิทักษ์สิทธิตั้งแต่ปี 2021 อธิบาย อัลกอริทึมมักจะมีอคติซึ่งอาจนำไปสู่การเลือกปฏิบัติ เรียกคืนหน่วยงานอิสระ โดยอ้างถึงในการสนับสนุนรายงานก่อนหน้าจากปี 2020 ที่เตือนถึงความเสี่ยงของระบบอัตโนมัติ ของการเลือกปฏิบัติของอัลกอริทึม
ประเด็นนี้ได้รับการหยิบยกขึ้นมาหลายครั้งโดยสื่อและกลุ่มสิทธิ ในฝรั่งเศส Quadrature du Net ประณามอัลกอริทึมสำหรับในเดือนพฤศจิกายน 2023กองทุนสงเคราะห์ครอบครัวแห่งชาติ (CNAF) ซึ่งตั้งเป้าหมายล่อแหลมที่สุดตามสมาคม เครื่องมือเหล่านี้ช่วยให้ขึ้นอยู่กับ CNAF ที่จะตัดสินใจว่าผู้รับรายใดที่จะควบคุม ซึ่งเป็นส่วนหนึ่งของการต่อสู้กับการฉ้อโกงทางสังคม
อ่านเพิ่มเติม:การฉ้อโกงเงินสงเคราะห์ครอบครัว: CAF ใช้อัลกอริธึมที่กำหนดเป้าหมายไปยังกลุ่มที่ไม่ปลอดภัยที่สุด ตามข้อมูลของ Quadrature du Net
ขณะนี้เรื่องได้ถูกนำเข้าสู่คณะกรรมการกฤษฎีกาแล้ว เมื่อเดือนที่แล้วสมาคม 15 แห่งได้เริ่มดำเนินคดีทางกฎหมายโดยมีเป้าหมายเพื่อหยุดการใช้อัลกอริทึมการให้คะแนนนี้ของ CNAF
อ่านเพิ่มเติม:การเชื่อมโยงเหล่านี้ต้องการลบอัลกอริธึมการให้คะแนน CAF... และอื่นๆ
การป้องกันที่ใช้ในทางปฏิบัติไม่ดี?
อย่างไรก็ตาม เรียกคืนผู้พิทักษ์สิทธิ เนื่องจากกฎหมายปี 2018 ฝ่ายบริหารสามารถตัดสินใจบางอย่างเกี่ยวกับการประมวลผลข้อมูลส่วนบุคคลโดยอัตโนมัติ โดยขึ้นอยู่กับเงื่อนไขหลายประการ แต่มาตรการป้องกันที่บัญญัติไว้ในกฎหมายนี้เป็นเรื่องยากที่จะนำไปใช้ในทางปฏิบัติ -ตัวอย่างเช่น กฎหมายกำหนดให้ผู้ใช้ได้รับแจ้งเกี่ยวกับการตัดสินใจอัตโนมัติที่เกี่ยวข้องกับพวกเขา แต่ก็ยังยากที่จะกำหนดประเภทและระดับของรายละเอียดที่จำเป็นสำหรับข้อมูลนี้ให้มีประโยชน์และเข้าถึงได้», บันทึกอำนาจ
กล่าวอีกนัยหนึ่ง ผู้ใช้ไม่จำเป็นต้องตระหนักว่ามันเป็นอัลกอริธึมของการบริหารระบบใดระบบหนึ่งซึ่งนำไปสู่การตัดสินใจโดยเฉพาะ -วิธีการตัดสินใจซึ่งมีลักษณะและการดำเนินการอัตโนมัติ หรือแม้แต่อคติที่เป็นไปได้ จะไม่สามารถมองเห็นได้โดยตรง» เสียใจกับผู้พิทักษ์สิทธิ
โดยปกติกฎหมายกำหนดให้ฝ่ายบริหารต้องเผยแพร่ “กฎที่กำหนดการประมวลผลอัลกอริทึมหลัก- แต่ในความเป็นจริง มันแทบไม่เคยถูกนำมาใช้เลย โดยเฉพาะอย่างยิ่งเนื่องจากไม่มีการลงโทษในกรณีที่ไม่ปฏิบัติตามพันธกรณีนี้ ตามรายงาน
ปัญหาอีกประการหนึ่ง: ระบบ AI ควรได้รับการดูแลโดยมนุษย์ ในทางปฏิบัติ การแทรกแซงของพวกเขามักจะจำกัดเกินไป นักปกป้องสิทธิเตือนเราว่าจำเป็น”ให้ความสำคัญกับการเคารพสิทธิของผู้ใช้เป็นหัวใจของวัตถุประสงค์ที่กำหนดให้กับผู้จัดการสาธารณะและตัวแทนภาคสนาม และในทางกลับกัน เพื่อไม่ให้ฝ่ายบริหารมีสมาธิ โดยเฉพาะอย่างยิ่งในส่วนที่เกี่ยวกับการปรับใช้ระบบอัลกอริธึมตามวัตถุประสงค์ลำดับความสำคัญของการลดต้นทุนและบุคลากรและต่อไปตัวชี้วัดความสามารถในการทำกำไร -
อ่านเพิ่มเติม:ในสหรัฐอเมริกา ผู้ดูแลถูกบังคับให้ปฏิบัติตามคำแนะนำของอัลกอริทึม
การควบคุมดูแลโดยมนุษย์อย่างแท้จริง การขอความช่วยเหลือ... คำแนะนำของผู้พิทักษ์สิทธิ
หน่วยงานอิสระเสนอข้อเสนอแนะหลายประการต่อรัฐบาลและฝ่ายบริหาร ประการแรก เธอเชื่อว่าผู้ใช้ควรได้รับการแจ้งอย่างเป็นระบบเกี่ยวกับบทบาทของอัลกอริทึมที่ใช้ในการตัดสินใจที่เกี่ยวข้องกับพวกเขา
ฝ่ายบริหารก็ควร “รับประกันการควบคุมดูแลโดยมนุษย์อย่างมีประสิทธิภาพอย่างแท้จริงในการตัดสินใจด้วยอัลกอริทึม พร้อมด้วยความสามารถในการดำเนินการและแก้ไขกระบวนการหากจำเป็น- Claire Hédon ยังแนะนำให้ป้องกันตนเองจากอคติของอัลกอริทึมให้ดีขึ้น ซึ่งอาจนำไปสู่การเลือกปฏิบัติได้
อ่านเพิ่มเติม:เหตุใดอัลกอริทึมจึงยังคงเหยียดเพศ
หน่วยงานอิสระไม่ได้พิจารณาสิ่งใดมากไปกว่าการใช้ข้อมูลส่วนบุคคลที่ละเอียดอ่อน เช่น รสนิยมทางเพศ เชื้อชาติหรือชาติพันธุ์ ความคิดเห็นทางการเมืองหรือศาสนา การเป็นสมาชิกสหภาพแรงงาน ข้อมูลสุขภาพ ฯลฯ ของบุคคล ควรจะเป็นสิ่งต้องห้ามอย่างชัดเจนในระบบ AI . สุดท้ายนี้ แนะนำให้ทำให้ผู้ใช้สามารถท้าทายการตัดสินใจตามอัลกอริทึมที่กำหนดได้ง่ายขึ้น โดยอาศัยการแทรกแซงของมนุษย์อย่างเป็นระบบในกรณีที่เกิดข้อพิพาท
🔴 เพื่อไม่ให้พลาดข่าวสารจาก 01net ติดตามเราได้ที่Google ข่าวสารetวอทส์แอพพ์-
แหล่งที่มา : รายงานประจำวันที่ 13 พฤศจิกายน 2567