อัลกอริธึมปัญญาประดิษฐ์เริ่มเข้ามาครอบงำชีวิตของเรามากขึ้นเรื่อยๆ โดยที่เราไม่แน่ใจถึงความถูกต้องของการตัดสินใจของพวกเขา แนวปฏิบัติและเครื่องมือที่ดีเริ่มปรากฏให้เห็นเพื่อส่งเสริมการใช้เทคโนโลยีนี้อย่างมีจริยธรรมและมีความรับผิดชอบ
แต่ละครั้งที่มีเทคโนโลยีปฏิวัติใหม่ปรากฏขึ้น คำถามด้านจริยธรรมและกฎหมายก็เกิดขึ้นอย่างรวดเร็ว: อะไรคือข้อจำกัดในการใช้งาน? เราจะมั่นใจได้อย่างไรว่าจะไม่ก่อให้เกิดผลเสียต่อผู้ใช้? หากมีสิ่งผิดปกติเกิดขึ้นใครจะเป็นผู้รับผิดชอบ?
ปัญญาประดิษฐ์ก็ไม่มีข้อยกเว้นสำหรับกฎนี้ คำถามเรื่องจริยธรรมยังมีความสำคัญเป็นพิเศษเมื่อพิจารณาถึงผลกระทบของเทคโนโลยีนี้ และโดยเฉพาะอย่างยิ่งการเรียนรู้ของเครื่องที่แตกต่างออกไป ในด้านต่างๆ ในชีวิตประจำวันของเราที่เพิ่มมากขึ้นเรื่อยๆ อัลกอริธึมปัญญาประดิษฐ์จะตัดสินสิ่งที่เราเห็นบนอินเทอร์เน็ต ประเมินความน่าเชื่อถือของเรา ขับเครื่องบินและรถยนต์ของเราร่วมกัน แนะนำผลิตภัณฑ์ให้เราซื้อ ช่วยให้แพทย์ตรวจพบอาการเจ็บป่วยของเราและสั่งจ่ายยา สามารถจดจำเสียงและใบหน้าของเราที่บ้านหรือที่อื่น ๆ ฯลฯ
ปัญหายุ่งยากของรถยนต์ไร้คนขับ
แต่การสร้างกรอบการทำงานด้านจริยธรรมสำหรับโปรแกรมนั้นไม่ใช่เรื่องง่าย การใช้กฎ 3 ข้อของวิทยาการหุ่นยนต์ที่ไอแซค อาซิมอฟ จินตนาการไว้ในปี 1942 นั้นไม่เพียงพอ กฎเหล่านี้ช่วยในการเล่าเรื่องได้ดี แต่ก็เรียบง่ายเกินไปมาก ดังที่ตัวอย่างของรถยนต์ขับเคลื่อนอัตโนมัติแสดงให้เห็น เนื่องจากเราไม่สามารถลดความเสี่ยงในการเกิดอุบัติเหตุได้ เราจึงต้องคาดการณ์ล่วงหน้าถึงการตัดสินใจที่ยากลำบากที่ระบบขับเคลื่อนอัตโนมัติต้องทำ ขึ้นอยู่กับกรณีต่างๆ ที่หลากหลายและหลากหลาย หากเกิดอุบัติเหตุอย่างหลีกเลี่ยงไม่ได้แต่สามารถปรับวิถีสุดท้ายได้ ควรจัดลำดับความสำคัญอย่างไร? เราควรช่วยชีวิตผู้สูงอายุสองคนที่ข้ามถนนแม้ว่าจะต้องชนกำแพงและทำให้ผู้โดยสารเด็กเสียชีวิตหรือไม่? เราควรรักษาชีวิตของผู้หญิงมากกว่าผู้ชายหรือไม่? ของเด็กมากกว่าผู้สูงอายุ? คนรวยสร้างความเสียหายให้กับคนจนหรือเปล่า?
และการสำรวจทั่วโลกดำเนินการในปี 2018 และรับบัพติศมา« การทดลองเครื่องจักรคุณธรรม »แสดงให้เห็นว่าไม่ใช่ทุกคนจะมีวิธีมองเห็นสิ่งต่างๆ เหมือนกัน ในสังคมปัจเจกนิยม เช่น ประเทศในอเมริกาเหนือ เราต้องการช่วยเหลือผู้คนให้มากที่สุดเท่าที่จะทำได้ โดยไม่คำนึงถึงลักษณะส่วนบุคคลของเหยื่อ ในสังคมกลุ่มนิยม เช่น บางประเทศในเอเชีย เราชอบที่จะรักษาชีวิตของผู้สูงอายุมากกว่าคนหนุ่มสาว และในประเทศลาติน เช่น ฝรั่งเศส เรามักจะต้องการรักษาชีวิตของผู้หญิงมากกว่าผู้ชาย กล่าวโดยสรุป ไม่เพียงแต่กฎเกณฑ์ที่บางครั้งมีความซับซ้อนในการกำหนดเท่านั้น แต่ยังเป็นไปไม่ได้เสมอไปที่จะทำให้กฎเหล่านี้เป็นสากล ซึ่งไม่ได้ขัดขวางเยอรมนีจากการกำหนดในปี 2560 กคู่มือจริยธรรมฉบับแรกเพื่อการพัฒนารถยนต์ขับเคลื่อนอัตโนมัติและเชื่อมต่อ
![](http://webbedxp.com/th/tech/misha/app/uploads/2019/07/moral-machine.jpg)
อย่างไรก็ตาม แม้ว่าเราจะมีความคิดที่ชัดเจนและชัดเจนเกี่ยวกับกรอบจริยธรรมที่ต้องเคารพ เราก็ไม่เคยปลอดภัยจากอคติ กล่าวคือ เกิดจากข้อผิดพลาดที่เป็นระบบแต่ไม่สมัครใจเกี่ยวกับกฎเกณฑ์ที่วางไว้ ที่ตัวอย่างในบริเวณนี้มีมากมาย ในปี 2015 การจดจำรูปภาพของ Google ทำให้พลเมืองอเมริกันเชื้อสายแอฟริกันเข้าใจผิดว่าเป็นกอริลล่า ในปี 2559 Chatbot ของ Microsoft เริ่มต้นขึ้นอย่างกะทันหันจู่ๆ ก็พูดเหมือนนีโอนาซี- ในปีเดียวกันนั้น เว็บไซต์ ProPublica เปิดเผยว่าซอฟต์แวร์สำหรับประเมินความเสี่ยงของการกระทำซ้ำซากที่เรียกว่า Compas นั้นมีประโยชน์อย่างมากในกรณีของชาวอเมริกันผิวสี ซึ่งส่งผลให้ได้รับโทษหนักกว่าคนอเมริกันผิวขาว
อคติเหล่านี้ยากต่อการคาดเดา ในกรณีของ Compas ผู้พัฒนาได้ลบข้อมูลการวิเคราะห์ที่เกี่ยวข้องกับชาติพันธุ์หรือแหล่งกำเนิดทางภูมิศาสตร์ออกจากเพื่อหลีกเลี่ยงการเลือกปฏิบัติประเภทนี้ แต่ซอฟต์แวร์ดังกล่าวยังก่อให้เกิดอคติทางชาติพันธุ์อย่างมีนัยสำคัญ“เนื่องจากความสัมพันธ์ที่มีอยู่ระหว่างข้อมูล จึงเป็นไปได้ที่โปรแกรมการเรียนรู้ของเครื่องจะรื้อฟื้นอคติที่เราต้องการกำจัดออกไปตั้งแต่แรก กรณี Compas แสดงว่าการลบข้อมูลไม่เพียงพอ »Rachel Orti ผู้เชี่ยวชาญด้านเทคนิคของ IBM France Software Lab อธิบายในระหว่างการประชุม AI Paris 2019 นับตั้งแต่นั้นเป็นต้นมา องค์กรหลายแห่งได้ถูกสร้างขึ้นเพื่อนำหลักจริยธรรมมาสู่อัลกอริธึมการเรียนรู้ของเครื่อง หนึ่งในนั้นคือ AI For Good Foundation, Data For Good, Fair By Design, Algorithmic Justice League, Algorithm Watch, The Institute for Ethical AI และ Machine Learning เป็นต้น
จะต้องมีกระบวนการทางจริยธรรม
แต่แล้วเราจะป้องกันไม่ให้ปัญญาประดิษฐ์ลื่นไถลและทำความชั่วแทนที่จะทำความดีได้อย่างไร? การเคารพในความเป็นธรรมและการไม่เลือกปฏิบัตินั้นไม่ใช่วิทยาศาสตร์ที่แน่นอน“ไม่มีไลบรารีซอฟต์แวร์ที่ให้คุณปรับใช้ความเป็นธรรมในซอฟต์แวร์ได้ นี่คือสิ่งที่ต้องได้รับการแก้ไขโดยการประยุกต์ใช้แนวปฏิบัติที่ดีและการสร้างกระบวนการที่ต้องจัดทำเป็นเอกสารไว้อย่างชัดเจน”Joaquin Quinonera Candela ผู้อำนวยการภายในหน่วยงาน Facebook AI อธิบายระหว่างงานแถลงข่าวที่ปารีส
จุดเริ่มต้นที่ดีคือการปรึกษาหารือกับหลักจริยธรรมเจ็ดประการกำหนดในเดือนเมษายน 2019 โดยคณะกรรมาธิการยุโรป และเพื่อรองรับข้อจำกัดทางกฎหมายที่กำหนดโดยกฎระเบียบ GDPR ของยุโรป ซึ่งมีผลบังคับใช้ตั้งแต่เดือนพฤษภาคม 2018 โดยเฉพาะอย่างยิ่งมาตรา 22 ระบุว่า“การประมวลผลอัตโนมัติ”โดยทั่วไปไม่สามารถตัดสินใจโดยใช้ข้อมูลส่วนบุคคลได้ เช่น เชื้อชาติ ความคิดเห็นทางการเมือง ความเชื่อทางศาสนา เป็นต้น
![](http://webbedxp.com/th/tech/misha/app/uploads/2019/07/principes-ethiques-IA.jpg)
การต่อสู้กับอคติเกี่ยวข้องกับการมีส่วนร่วมของผู้คนที่หลากหลายในโครงการพัฒนา ทั้งในแง่ของเพศและชาติพันธุ์ สังคม สติปัญญา ต้นกำเนิดทางวิชาชีพ ฯลฯ“ยิ่งผู้คนมีความหลากหลายมากขึ้นเท่าไร คำถามก็จะยิ่งแตกต่างกันมากขึ้นเกี่ยวกับผลกระทบของซอฟต์แวร์ปัญญาประดิษฐ์ต่อชีวิตของผู้คน ดังนั้นเราจะสามารถพิจารณาสถานการณ์ต่างๆ ได้มากขึ้นตั้งแต่ขั้นตอนการออกแบบ”ขีดเส้นใต้ Mélanie Rao ผู้พัฒนาที่ IBM France Software Lab
อคติอาจฝังตัวอยู่ในส่วนต่างๆ ของระบบแมชชีนเลิร์นนิง ข้อมูลที่ใช้ในการฝึกอัลกอริทึมสามารถสร้างอคติได้หากกลุ่มบางกลุ่มมีการนำเสนอมากเกินไปหรือน้อยเกินไป ข้อผิดพลาดยังสามารถเกิดขึ้นได้ในขณะที่ติดป้ายกำกับข้อมูล สิ่งนี้ทำด้วยมือและอาศัยวิจารณญาณของมนุษย์ ดังนั้นจึงอาจผิดพลาดและมีอคติได้ กรณีทั่วไปคือการตรวจพบข้อมูลเท็จบน Facebook“มันซับซ้อนเพราะคำจำกัดความของข้อมูลเท็จอาจแตกต่างกันไปในแต่ละคน จึงจำเป็นต้องมีผู้บังคับบัญชาที่หลากหลาย”Joaquin Quinonera Candela อธิบาย
![](http://webbedxp.com/th/tech/misha/app/uploads/2019/07/candela-Facebook.jpg)
อคติยังสามารถพบได้ในวิธีที่อัลกอริทึมจะประมวลผลข้อมูลที่ติดป้ายกำกับและมาถึงการประเมิน (ตัวอย่าง: ความน่าจะเป็นที่เป็นข้อมูลเท็จ) เช่นเดียวกับวิธีที่การประเมินนี้ทำให้เกิดการตัดสินใจ (ตัวอย่าง: นี่เป็นข้อมูลเท็จจริงๆ)“ท้ายที่สุดแล้ว การคาดการณ์จะต้องได้รับการปรับเทียบอย่างดี และจะต้องหลีกเลี่ยงความแตกต่างระหว่างกลุ่มผู้ใช้ที่แตกต่างกัน”ขีดเส้นใต้ผู้อำนวยการ Facebook AI
เครื่องมือและตัวชี้วัด
ข่าวดีก็คือนักพัฒนาเริ่มมีเครื่องมือโอเพ่นซอร์สมากมายที่ช่วยให้พวกเขาตรวจจับอคติเหล่านี้ได้ เครื่องมือเหล่านี้อาศัย "ตัวชี้วัด" ความน่าจะเป็น ซึ่งหากเบี่ยงเบนไปจากปกติ จะสร้างการแจ้งเตือนและช่องทางในการแก้ไขปัญหา IBM จัดหาซอฟต์แวร์ที่เรียกว่า "AI Fairness 360" พร้อมด้วยเมตริกมากกว่า 70 รายการ บริษัท Pymetrics ได้สร้าง "Audit AI" ซึ่งเป็นไลบรารี Python เพื่อทดสอบเมตริกประมาณสิบรายการ และ Google เสนอ "เครื่องมือ What-if" ซึ่งช่วยให้คุณสามารถเล่นกับ 5 เมตริกและ "ตัวแปรเกณฑ์" ในส่วนของ Facebook ได้พัฒนาเครื่องมือภายในที่เรียกว่า "Fairness Flow" ซึ่งไม่สามารถหาได้ฟรี
แต่ถึงแม้จะมีเครื่องมือเหล่านี้ เราก็ไม่สามารถต้านทานความประหลาดใจอันไม่พึงประสงค์ได้“ความยากลำบากคือการเลือกหน่วยวัดที่เหมาะสมสำหรับปัญญาประดิษฐ์ที่กำหนด ทั้งนี้จะกระทำเป็นกรณีไป”เมลานี เราอธิบาย แน่นอนว่าหากเราไม่เลือกหน่วยวัดที่ถูกต้อง เราก็เสี่ยงที่จะไม่พบอคติที่ซ่อนอยู่
กล่าวโดยสรุป ดังที่เราเห็น การสร้างซอฟต์แวร์ปัญญาประดิษฐ์ที่มีจริยธรรมและความรับผิดชอบนั้นไม่ใช่เรื่องง่าย เป็นการเดินทางที่เต็มไปด้วยหลุมพรางและหลุมพราง เพื่อให้บรรลุเป้าหมายนี้ ไม่เพียงแต่จะต้องมีความเชี่ยวชาญทางเทคนิคที่ยอดเยี่ยมเท่านั้น แต่ยังต้องให้ความเคารพต่อกระบวนการแบบเปิดซึ่งช่วยให้สามารถควบคุมและติดตามการพัฒนาแต่ละขั้นตอนได้ ซับซ้อน.
🔴 เพื่อไม่ให้พลาดข่าวสารจาก 01net ติดตามเราได้ที่Google ข่าวสารetวอทส์แอพพ์-