อัลกอริทึมไม่เป็นกลางพวกเขามักจะเป็นผู้หญิง เหตุผล: โดยการเรียนรู้ข้อมูล“ ลำเอียง” พวกเขากลายเป็นลำเอียง และนั่นไม่ได้เกี่ยวกับการเปลี่ยนแปลง
นักวิจัยและผู้แจ้งเบาะแสได้รับความตื่นตระหนกโดยการกีดกันทางเพศของอัลกอริทึม- และในปี 2023 ดูเหมือนจะไม่มีอะไรเปลี่ยนแปลง อย่างไรก็ตามนี่ไม่ใช่ปัญหาเล็กน้อย อคติทางเพศและอคติที่เกิดขึ้นบ่อยครั้งในระบบ AI มีผลในชีวิตประจำวันของผู้หญิงตั้งแต่การเลือกปฏิบัติเพื่อความปลอดภัยและเคารพปัญหากับความเป็นส่วนตัว- ในฝูงชนของทุ่งนาผู้หญิงได้รับการปกป้องหรือได้รับความนิยมน้อยกว่าผู้ชายเช่นเข็มขัดนิรภัยและถุงลมนิรภัยที่ออกแบบมาเพื่อปกป้องร่างกายชายเท่านั้น และในโลกดิจิตอลเราพบการเลือกปฏิบัติแบบเดียวกันบางครั้งก็แย่ลง
เพื่อให้เข้าใจสิ่งนี้คุณต้องกลับไปที่กรณีแรกของอัลกอริทึมผู้หญิงที่ได้รับการเผยแพร่ ในปี 2014 Amazon ทดสอบระบบปัญญาประดิษฐ์ใหม่ที่ควรจะอำนวยความสะดวกในการรับสมัครพนักงานรายงานสำนักข่าวรอยเตอร์ในปีพ. ศ. 2561 เขาสัญญาว่าจะเลือกผู้สมัครที่สมบูรณ์แบบ CVS หลายร้อยคนซึ่งเป็นเวลาที่มีค่าสำหรับทรัพยากรมนุษย์ ปัญหา: ซอฟต์แวร์นี้ถูกไล่ออกผู้หญิงอย่างเป็นระบบ ยักษ์อีคอมเมิร์ซก่อนพยายามแก้ไขช็อตโดยการปรับเปลี่ยนพารามิเตอร์โดยไม่ประสบความสำเร็จ กลุ่มจบลงด้วยการหยุดใช้ในปี 2560
อัลกอริทึมให้ความเป็นจริงที่เป็นโปรเฟสเซอร์มากขึ้น
ทำไมซอฟต์แวร์นี้ไม่ชอบผู้หญิง? เพราะiaสำหรับการฝึกอบรมของเขาขึ้นอยู่กับข้อมูล- ปัญหาคือข้อมูลส่วนใหญ่ที่มีอยู่ตั้งแต่ยุค 2000 มีอคติต่อผู้ชาย หากเราป้อนตัวอย่าง AI ที่มีข้อมูลจาก Google News หลังจะเชื่อมโยงผู้ชายกับบทบาทชั้นนำและผู้หญิงกับผู้ช่วยหรือผู้หญิงที่บ้าน เพราะ "อัลกอริทึมไม่พอใจที่จะทำซ้ำความเป็นจริง แต่พวกเขา "มากกว่าประเภท”ความจริง กล่าวคือจากข้อมูลจากที่มีอยู่แล้วพวกเขามีเวอร์ชันโปรเฟสเซอร์มากขึ้น»รายละเอียด Isabelle Collet นักวิทยาศาสตร์คอมพิวเตอร์และศาสตราจารย์ที่ University of Geneva ในการให้สัมภาษณ์heidi.news-
อ่านเพิ่มเติม: ปัญญาประดิษฐ์ความเสี่ยงต่อชุมชน LGBT หรือไม่?
ปัญหาอีกประการหนึ่ง: ทีมที่สร้างระบบปัญญาประดิษฐ์เหล่านี้ส่วนใหญ่เป็นผู้ชาย จากข้อมูลของ World Economic Forum มีเพียง 22 % ของ AI และผู้เชี่ยวชาญด้านวิทยาศาสตร์ข้อมูลเป็นผู้หญิง ทอง, "เช่นเดียวกับเทคโนโลยีทั้งหมดปัญญาประดิษฐ์สะท้อนให้เห็นถึงคุณค่าของผู้สร้าง», ขีดเส้นใต้ Kate Crawford, ผู้อำนวยการร่วมของ AI New Institute of New York University, สัมภาษณ์โดยเพื่อนร่วมงานของเราจากEuronews- ไม่ใช่ว่าโปรแกรมเมอร์ได้รับการพิสูจน์แล้ว แต่ถ้าคุณทำงานเช่นซอฟต์แวร์การจดจำเทียมคุณจะทดสอบกับคุณ: และถ้าคุณและทีมของคุณเป็นคนผิวขาวส่วนใหญ่หลังจะทำงานได้ดีโดยเฉพาะสำหรับโปรไฟล์เหล่านี้และอาจน้อยกว่าผู้หญิงที่มีผิวคล้ำ
ทีมนักพัฒนาที่หลากหลายมากขึ้นโซลูชั่นด้านเทคนิค ...
สัมภาษณ์โดยLes echos, วันอังคารที่ 7 มีนาคม, Mathilde Saliou, ผู้แต่งTechnofeminism: ความไม่เท่าเทียมกันทางดิจิตอลทำให้รุนแรงขึ้นอย่างไร, จำได้ "อัลกอริทึมนั้นเป็นเครื่องมือที่มนุษย์สร้างขึ้นและดังนั้นจึงเป็นเครื่องมือที่เต็มไปด้วยข้อผิดพลาดและอคติ (ผู้หญิงที่เหยียดผิว ฯลฯ ) ผู้ที่ออกแบบมาอย่างยอดเยี่ยม อย่างไรก็ตามผู้ชายที่สร้างรหัสหรือวิศวกรได้รับการตอบกลับในหมู่นักพัฒนา ความเป็นเนื้อเดียวกันทางสังคมของพวกเขาหมายความว่าพวกเขาแบ่งปันการกำกับดูแลเดียวกันมีมุมที่ตายแล้วเหมือนกัน-
วิธีแก้ไขภาพ? นอกจากเทคนิคการแก้ปัญหาใครสามารถแก้ไขอคติเหล่านี้ซึ่งไม่เพียง แต่เกี่ยวข้องกับการเลือกปฏิบัติทางเพศเท่านั้นเรียนรู้ที่จะรับรู้อคติรวมถึงสิ่งที่เราไม่ทราบ และเป็นงานที่ต้องทำที่เกี่ยวข้องกับโปรแกรมเมอร์มากเท่ากับผู้ใช้-
เมื่อใช้ AI ก็จำเป็นเช่นกันเข้าใจการทำงานของมันสงสัยว่าข้อมูลที่ใช้มาจากไหนและไม่ได้รับคำแนะนำเป็นเงินสด - ซึ่งไม่ชัดเจนเสมอไปโดยเฉพาะอย่างยิ่งเนื่องจากการทำงานของ AI มักจะไม่โปร่งใส ในที่สุดการจัดตั้งทีมที่หลากหลายมากขึ้นในหมู่นักพัฒนาจะเป็นตัวแทนของมุมมองของชายและหญิงอธิบาย Aude Bernheim และ Flora Vincent ในการทำงานของพวกเขาปัญญาประดิษฐ์ไม่ใช่โดยไม่มีพวกเขา- โปรแกรมทั้งหมดที่ทำให้ตัวเองช้าเกินไป
🔴อย่าพลาดข่าว 01NET ใด ๆ ติดตามเราที่Google NewsETWhatsapp-
แหล่งที่มา : Les echos