อัลกอริทึมไม่เป็นกลาง แต่มักจะเหยียดเพศด้วยซ้ำ เหตุผล: เมื่อเรียนรู้จากข้อมูลที่ "เอนเอียง" ข้อมูลเหล่านี้จึงมีอคติ และนั่นไม่เกี่ยวกับการเปลี่ยนแปลง
เป็นเวลาหลายปีแล้วที่นักวิจัยและผู้แจ้งเบาะแสตื่นตระหนกกับการกีดกันทางเพศของอัลกอริธึม- และในปี 2023 ดูเหมือนจะไม่มีอะไรเปลี่ยนแปลง อย่างไรก็ตามนี่ไม่ใช่ปัญหาเล็กน้อย อคติและอคติทางเพศซึ่งพบได้ทั่วไปในระบบ AI มีผลกระทบในชีวิตประจำวันของผู้หญิงตั้งแต่การเลือกปฏิบัติถึงประเด็นด้านความปลอดภัยและการปฏิบัติตามข้อกำหนดชีวิตส่วนตัว- ในหลายพื้นที่ ผู้หญิงได้รับการปกป้องหรือเป็นที่โปรดปรานน้อยกว่าผู้ชาย เช่น เข็มขัดนิรภัยและถุงลมนิรภัยที่ออกแบบมาเพื่อปกป้องร่างกายของผู้ชายเท่านั้น และในโลกดิจิทัล เราพบว่ามีการเลือกปฏิบัติแบบเดียวกัน บางครั้งก็แย่กว่านั้น
เพื่อทำความเข้าใจเรื่องนี้ เราต้องย้อนกลับไปที่กรณีแรกของอัลกอริทึมการกีดกันผู้หญิงที่จะเผยแพร่ รายงานในปี 2014 Amazon ทดสอบระบบปัญญาประดิษฐ์ใหม่เพื่อช่วยให้การรับสมัครพนักงานง่ายขึ้นสำนักข่าวรอยเตอร์ในปี 2018 บริษัทสัญญาว่าจะเลือกผู้สมัครที่สมบูรณ์แบบล่วงหน้าจาก CV หลายร้อยรายการ ซึ่งช่วยประหยัดเวลาอันล้ำค่าสำหรับทรัพยากรบุคคล ปัญหา: ซอฟต์แวร์นี้แยกผู้หญิงออกอย่างเป็นระบบ ยักษ์ใหญ่อีคอมเมิร์ซรายนี้พยายามแก้ไขสถานการณ์โดยการปรับเปลี่ยนการตั้งค่าแต่ไม่ประสบผลสำเร็จ ในที่สุดกลุ่มก็หยุดใช้มันในปี 2560
อัลกอริธึมให้ความเป็นจริงในรูปแบบโปรเฟสเซอร์มากขึ้น
ทำไมซอฟต์แวร์นี้ถึงไม่ชอบผู้หญิง? เพราะว่าไอโอวาสำหรับการฝึกฝนของเขาขึ้นอยู่กับข้อมูล- ปัญหาคือข้อมูลส่วนใหญ่ที่มีอยู่นับตั้งแต่ทศวรรษ 2000 บิดเบือนไปที่ผู้ชาย ตัวอย่างเช่น ถ้าเราป้อนข้อมูลจาก Google News ให้กับ AI มันก็จะเชื่อมโยงผู้ชายกับบทบาทผู้นำ และผู้หญิงกับผู้ช่วยหรือแม่บ้าน เพราะ "อัลกอริธึมไม่เพียงแต่สร้างความเป็นจริงขึ้นมาใหม่เท่านั้น แต่ยังรวมถึง “เกินประเภท”ความเป็นจริง กล่าวคือจากข้อมูลที่มีอยู่ที่พวกเขามีอยู่แล้ว พวกเขาให้เวอร์ชันที่เหมารวมมากขึ้น» Isabelle Collet นักวิทยาศาสตร์คอมพิวเตอร์และศาสตราจารย์แห่งมหาวิทยาลัยเจนีวาอธิบายในการให้สัมภาษณ์กับไฮดี้. ข่าว-
อ่านเพิ่มเติม: ปัญญาประดิษฐ์ ความเสี่ยงสำหรับชุมชน LGBT?
ปัญหาอีกประการหนึ่ง: ทีมที่สร้างระบบปัญญาประดิษฐ์เหล่านี้ส่วนใหญ่เป็นผู้ชาย ตามรายงานของ World Economic Forum มีเพียง 22% ของผู้เชี่ยวชาญด้าน AI และวิทยาศาสตร์ข้อมูลเท่านั้นที่เป็นผู้หญิง ทอง, "เช่นเดียวกับเทคโนโลยีอื่นๆ ปัญญาประดิษฐ์สะท้อนถึงคุณค่าของผู้สร้าง» เน้นย้ำ Kate Crawford ผู้อำนวยการร่วมของ AI New Institute แห่งมหาวิทยาลัยนิวยอร์ก สัมภาษณ์โดยเพื่อนร่วมงานของเราที่ยูโรนิวส์- ไม่ใช่ว่าโปรแกรมเมอร์จะพิสูจน์ได้ว่าเป็นคนผู้ชาย แต่ถ้าคุณทำงานเป็นตัวอย่างในซอฟต์แวร์การรู้จำเทียม คุณจะต้องทดสอบมันด้วยตัวเอง และถ้าคุณและทีมของคุณเป็นผู้ชายผิวขาวเป็นส่วนใหญ่ มันจะทำงานได้ดีเป็นพิเศษกับโปรไฟล์เหล่านี้ และอาจดีน้อยกว่าสำหรับผู้หญิงที่มีผิวสีเข้ม
มีทีมนักพัฒนาที่หลากหลาย โซลูชันทางเทคนิค...
สัมภาษณ์โดยเลส เอคโคส์วันอังคารที่ 7 มีนาคม Mathilde Saliou ผู้เขียนTechnofeminism: เทคโนโลยีดิจิทัลทำให้ความไม่เท่าเทียมกันแย่ลงได้อย่างไร, จำได้ว่า “อัลกอริธึมเป็นเครื่องมือที่มนุษย์สร้างขึ้น และด้วยเหตุนี้จึงเป็นเครื่องมือที่เต็มไปด้วยข้อผิดพลาดและอคติ (การรังเกียจผู้หญิง การเหยียดเชื้อชาติ ฯลฯ) ไม่ว่าคนที่ออกแบบจะเก่งแค่ไหนก็ตาม อย่างไรก็ตาม ผู้ชายที่ศึกษาเกี่ยวกับการเขียนโค้ดหรือวิศวกรรมศาสตร์มักถูกนำเสนอมากเกินไปในหมู่นักพัฒนา ความสม่ำเสมอทางสังคมของพวกเขาหมายความว่าพวกเขามีความหลงลืมเหมือนกัน มีจุดบอดเหมือนกัน-
จะแก้ไขสถานการณ์ได้อย่างไร? นอกจากนี้เทคนิคการแก้ปัญหาใครสามารถแก้ไขอคติเหล่านี้ซึ่งไม่เพียงแต่เกี่ยวกับการเลือกปฏิบัติทางเพศเท่านั้น แต่ยังจำเป็นก่อนเรียนรู้ที่จะรับรู้อคติรวมถึงสิ่งที่เราไม่ทราบด้วย และเป็นงานที่ต้องทำซึ่งเกี่ยวข้องกับทั้งโปรแกรมเมอร์และผู้ใช้-
เมื่อใช้ AI ก็ควรจะเป็นเช่นนั้นด้วยเข้าใจวิธีการทำงานถามตัวเองว่าข้อมูลที่ใช้มาจากที่ใด และไม่ยึดถือคำแนะนำตามความเป็นจริง ซึ่งไม่ใช่เรื่องง่ายเสมอไป โดยเฉพาะอย่างยิ่งเมื่อการทำงานของ AI มักจะไม่โปร่งใส ในที่สุด การจัดตั้งทีมที่ผสมกันมากขึ้นระหว่างนักพัฒนาจะทำให้สามารถนำเสนอมุมมองของชายและหญิงได้ Aude Bernheim และ Flora Vincent อธิบายในหนังสือของพวกเขาปัญญาประดิษฐ์ หากไม่มีพวกเขา- โปรแกรมทั้งหมดที่ดำเนินการช้าเกินไป
🔴 เพื่อไม่ให้พลาดข่าวสารจาก 01net ติดตามเราได้ที่Google ข่าวสารetวอทส์แอพพ์-
แหล่งที่มา : เลส เอคโคส์