เมื่อ Microsoft เปิดตัว Chatbot อัจฉริยะที่มีชื่อว่า Tay บน Twitter เมื่อเดือนมีนาคมที่ผ่านมา ภายใน 24 ชั่วโมงบอทก็พ่นชนชั้นเหยียดผิวนีโอนาซีพูดจาโผงผางซึ่งส่วนใหญ่หยิบขึ้นมาโดยการรวมภาษาของผู้ใช้ Twitter ที่มีปฏิสัมพันธ์กับมัน
น่าเสียดายที่การวิจัยใหม่พบว่าโทรลล์ Twitter ไม่ใช่วิธีเดียวที่อุปกรณ์ AI สามารถเรียนรู้ภาษาชนชั้นได้ อันที่จริงแล้วปัญญาประดิษฐ์การเรียนรู้จากภาษามนุษย์มีแนวโน้มที่จะมีอคติในลักษณะเดียวกับที่มนุษย์เป็นตามที่นักวิทยาศาสตร์
นักวิจัยทดลองใช้อย่างกว้างขวางระบบการเรียนรู้ของเครื่องจักรเรียกว่าเวกเตอร์ทั่วโลกสำหรับการเป็นตัวแทน Word (GLOVE) และพบว่าอคติของมนุษย์ทุกประเภทที่พวกเขาทดสอบปรากฏในระบบประดิษฐ์ -เครื่องจักรสุดพิเศษ: 7 Robotic Futures-
“ มันน่าประหลาดใจที่ได้เห็นผลลัพธ์ทั้งหมดที่ฝังอยู่ในโมเดลเหล่านี้” Aylin Caliskan นักวิจัยหลังปริญญาเอกสาขาวิทยาศาสตร์คอมพิวเตอร์ที่ Princeton University กล่าว แม้แต่อุปกรณ์ AI ที่ "ได้รับการฝึกฝน" ในตำราที่เป็นกลางเช่นวิกิพีเดียหรือบทความข่าวก็มาเพื่อสะท้อนอคติของมนุษย์ทั่วไปเธอบอกกับวิทยาศาสตร์การใช้ชีวิต
อคติในตัว
GLOVE เป็นเครื่องมือที่ใช้ในการแยกความสัมพันธ์จากข้อความ - ในกรณีนี้คลังมาตรฐานของภาษาที่ดึงมาจากเวิลด์ไวด์เว็บ
นักจิตวิทยารู้มานานแล้วว่าสมองมนุษย์ทำให้ความสัมพันธ์ระหว่างคำอิงตามความหมายพื้นฐานของพวกเขา เครื่องมือที่เรียกว่าการทดสอบการเชื่อมโยงโดยนัยใช้เวลาตอบสนองเพื่อแสดงให้เห็นถึงความสัมพันธ์เหล่านี้: ผู้คนเห็นคำเช่น "ดอกแดฟโฟดิล" ควบคู่ไปกับแนวคิดที่น่าพอใจหรือไม่พึงประสงค์เช่น "ความเจ็บปวด" หรือ "ความงาม" และต้องเชื่อมโยงคำศัพท์อย่างรวดเร็วโดยใช้คีย์กด ไม่น่าแปลกใจที่ดอกไม้มีความสัมพันธ์กับแนวคิดเชิงบวกอย่างรวดเร็ว ในขณะที่อาวุธมีความสัมพันธ์กับแนวคิดเชิงลบอย่างรวดเร็วยิ่งขึ้น
IAT สามารถใช้เพื่อเปิดเผยความสัมพันธ์ที่หมดสติที่ผู้คนทำเกี่ยวกับกลุ่มสังคมหรือกลุ่มประชากรเช่นกัน ตัวอย่างเช่น IATs บางตัวที่มีอยู่ในไฟล์เว็บไซต์โดยปริยายพบว่าผู้คนมีแนวโน้มที่จะเชื่อมโยงอาวุธกับชาวอเมริกันผิวดำโดยอัตโนมัติและวัตถุที่ไม่เป็นอันตรายกับชาวอเมริกันผิวขาว
มีการถกเถียงกันเกี่ยวกับผลลัพธ์เหล่านี้นักวิจัยได้กล่าว ผู้คนสร้างความสัมพันธ์เหล่านี้เพราะพวกเขามีอคติทางสังคมที่ฝังลึกอยู่ลึกที่พวกเขาไม่ทราบหรือพวกเขาดูดซับพวกเขาจากภาษานั่นเป็นสถิติที่มีแนวโน้มที่จะใส่คำเชิงลบร่วมกับชนกลุ่มน้อยผู้สูงอายุและกลุ่มชายขอบอื่น ๆ ?
แบบแผนดิจิตอล
Caliskan และเพื่อนร่วมงานของเธอพัฒนา IAT สำหรับคอมพิวเตอร์ซึ่งพวกเขาขนานนามว่า Weat สำหรับการทดสอบสมาคมการฝังคำ การทดสอบนี้วัดความแข็งแรงของความสัมพันธ์ระหว่างคำที่แสดงโดยถุงมือมากเท่ากับ IAT วัดความแข็งแรงของความแข็งแรงของความสัมพันธ์ของคำในสมองมนุษย์-
สำหรับทุกสมาคมและทัศนคติที่ผ่านการทดสอบ WEAT จะส่งคืนผลลัพธ์เดียวกันกับ IAT เครื่องมือการเรียนรู้เครื่องจักรทำซ้ำความสัมพันธ์ของมนุษย์ระหว่างดอกไม้และคำพูดที่น่าพอใจ แมลงและคำที่ไม่พึงประสงค์; เครื่องดนตรีและคำพูดที่น่ารื่นรมย์ และอาวุธและคำพูดที่ไม่พึงประสงค์ ในการค้นพบที่น่าเป็นห่วงมากขึ้นมันเห็นชื่อยุโรป-อเมริกันที่น่าพอใจกว่าชื่อแอฟริกัน-อเมริกัน นอกจากนี้ยังเกี่ยวข้องกับชื่อชายมากขึ้นพร้อมกับคำศัพท์อาชีพและชื่อผู้หญิงก็ง่ายขึ้นด้วยคำพูดของครอบครัว ผู้ชายมีความสัมพันธ์อย่างใกล้ชิดกับคณิตศาสตร์และวิทยาศาสตร์และผู้หญิงที่มีศิลปะ ชื่อที่เกี่ยวข้องกับคนชรานั้นไม่เป็นที่พอใจมากกว่าชื่อที่เกี่ยวข้องกับคนหนุ่มสาว
“ เราค่อนข้างประหลาดใจที่เราสามารถทำซ้ำ IAT ทุกตัวที่ดำเนินการในอดีตโดยคนนับล้าน” Caliskan กล่าว
การใช้วิธีที่สองที่คล้ายกันนักวิจัยยังพบว่าเครื่องมือการเรียนรู้ของเครื่องจักรสามารถแสดงข้อเท็จจริงเกี่ยวกับโลกได้อย่างถูกต้องจากการเชื่อมโยงความหมาย เมื่อเปรียบเทียบกับผลการฝังคำศัพท์ของถุงมือกับข้อมูลสถิติแรงงานของสหรัฐอเมริกาที่แท้จริงเกี่ยวกับเปอร์เซ็นต์ของผู้หญิงในอาชีพ Caliskan พบความสัมพันธ์ 90 เปอร์เซ็นต์ระหว่างอาชีพที่ถุงมือเห็นว่าเป็น "เพศหญิง" และเปอร์เซ็นต์ที่แท้จริงของผู้หญิงในอาชีพเหล่านั้น
กล่าวอีกนัยหนึ่งโปรแกรมที่เรียนรู้จากภาษามนุษย์ได้รับ "การเป็นตัวแทนที่แม่นยำมากของโลกและวัฒนธรรม" Caliskan กล่าวแม้ว่าวัฒนธรรมนั้น - เช่นแบบแผนและอคติ - เป็นปัญหา AI ยังไม่ดีในการทำความเข้าใจบริบทที่มนุษย์เข้าใจได้อย่างง่ายดาย ตัวอย่างเช่นบทความเกี่ยวกับมาร์ตินลูเทอร์คิงจูเนียร์ถูกจำคุกในข้อหาประท้วงสิทธิพลเมืองในเบอร์มิงแฮมแอละแบมาในปี 2506 มีแนวโน้มที่จะเชื่อมโยงคำพูดเชิงลบมากมายกับชาวแอฟริกัน-อเมริกัน มนุษย์จะตีความเรื่องราวอย่างสมเหตุสมผลว่าเป็นหนึ่งในการประท้วงที่ชอบธรรมโดยฮีโร่ชาวอเมริกัน คอมพิวเตอร์จะเพิ่มอีกหนึ่งรายการในหมวดหมู่ "Black = Jail"
การรักษาความแม่นยำในขณะที่ได้รับเครื่องมือ AI เพื่อทำความเข้าใจความเป็นธรรมเป็นความท้าทายที่ยิ่งใหญ่ Caliskan กล่าว -ประวัติโดยย่อของปัญญาประดิษฐ์-
“ เราไม่คิดว่าการลบอคตินั้นจำเป็นต้องแก้ปัญหาเหล่านี้เพราะมันอาจจะทำลายการเป็นตัวแทนที่ถูกต้องของโลก” เธอกล่าว
AI ที่ไม่มีอคติ
การศึกษาใหม่ที่ตีพิมพ์ออนไลน์วันนี้ (12 เมษายน) ในวารสารวิทยาศาสตร์ไม่น่าแปลกใจเลยที่ Sorelle Friedler นักวิทยาศาสตร์คอมพิวเตอร์ของ Haverford College ซึ่งไม่ได้มีส่วนร่วมในการวิจัยกล่าว อย่างไรก็ตามมันสำคัญเธอพูด
“ นี่คือการใช้วิธีการพื้นฐานมาตรฐานที่ระบบหลายระบบถูกสร้างขึ้นจากนั้น” Friedler บอกกับ Live Science กล่าวอีกนัยหนึ่งอคติมีแนวโน้มที่จะแทรกซึมเข้าไปใน AI ใด ๆ ที่ใช้ถุงมือหรือเรียนรู้จากภาษามนุษย์โดยทั่วไป
Friedler มีส่วนร่วมในสาขาการวิจัยที่เรียกว่าความเป็นธรรมความรับผิดชอบและความโปร่งใสในการเรียนรู้ของเครื่องจักร- ไม่มีวิธีง่ายๆในการแก้ปัญหาเหล่านี้เธอกล่าว ในบางกรณีโปรแกรมเมอร์อาจสามารถบอกให้ระบบไม่สนใจแบบแผนเฉพาะได้อย่างชัดเจนเธอกล่าว ไม่ว่าในกรณีใดที่เกี่ยวข้องกับความแตกต่างกันนิดหน่อยมนุษย์อาจจำเป็นต้องวนเข้ามาเพื่อให้แน่ใจว่าเครื่องไม่ทำงาน AMOK โซลูชั่นน่าจะแตกต่างกันไปขึ้นอยู่กับสิ่งที่ AI ถูกออกแบบมาให้ทำ Caliskan กล่าว - พวกเขาสำหรับการค้นหาแอปพลิเคชันสำหรับการตัดสินใจหรืออย่างอื่น?
ในมนุษย์ทัศนคติโดยนัยไม่ได้มีความสัมพันธ์อย่างมากกับทัศนคติที่ชัดเจนเกี่ยวกับกลุ่มสังคม นักจิตวิทยาได้แย้งว่าทำไมสิ่งนี้คือ: คนแค่รักษาแม่เกี่ยวกับอคติของพวกเขาเพื่อหลีกเลี่ยงความอัปยศ? IAT หรือไม่ไม่ได้วัดอคติจริง ๆดี? แต่ดูเหมือนว่าอย่างน้อยผู้คนมีความสามารถในการให้เหตุผลเกี่ยวกับความถูกและผิดกับสมาคมที่มีอคติของพวกเขา Caliskan กล่าว เธอและเพื่อนร่วมงานของเธอคิดว่ามนุษย์จะต้องมีส่วนร่วม - และรหัสการเขียนโปรแกรมจะต้องมีความโปร่งใส - เพื่อให้ผู้คนสามารถตัดสินคุณค่าเกี่ยวกับความยุติธรรมของเครื่องจักร
"ในสถานการณ์ที่มีอคติเรารู้วิธีการตัดสินใจที่ถูกต้อง" Caliskan กล่าว "แต่น่าเสียดายที่เครื่องจักรไม่ทราบด้วยตนเอง"
บทความต้นฉบับเกี่ยวกับวิทยาศาสตร์สด-