การสืบสวนของนิตยสาร Time อธิบายเบื้องหลังของ ChatGPT OpenAI ฝึกอบรมโมเดลโดยขอให้พนักงานที่ได้รับค่าจ้างต่ำกว่าเกณฑ์ติดป้ายกำกับข้อความที่เลวร้ายหลายพันรายการผ่านผู้ให้บริการที่จัดตั้งขึ้นในแอฟริกา
“ภารกิจของ OpenAI คือเพื่อให้แน่ใจว่าปัญญาประดิษฐ์ทั่วไปจะเป็นประโยชน์ต่อมวลมนุษยชาติ”เราอ่านได้ไหมบนเว็บไซต์ของผู้สร้าง ChatGPT- การประกาศหลักการที่ดีมาก... ซึ่งยังห่างไกลจากการเป็นความจริงในขณะนี้
การสืบสวนที่ยาวนานและน่ากังวลของเวลาเผยบริษัทเทคโนโลยีที่โดดเด่นที่สุดในขณะนั้นใช้บริการของบริษัทซามะ เพื่อ “สอน” ChatGPT ไม่ให้โต้ตอบผู้ใช้ในลักษณะที่เป็นพิษหรือรุนแรง สำนักงานใหญ่ของ Sama ซึ่งมี Google, Microsoft และ NASA เป็นลูกค้า ตั้งอยู่ในซานฟรานซิสโก... แต่พนักงานหลายสิบคนที่ทำงานใน ChatGPT อาศัยอยู่ห่างไกลจาก Silicon Valley มาก
จริงๆ แล้วพวกเขาเป็นคนงานชาวเคนยาจากซามา ซึ่งได้รับค่าจ้างตามเวลาระหว่าง 1.20 ถึง 2 ยูโรต่อชั่วโมง ซึ่งดำเนินการ "งานสกปรก" ซึ่งทำให้เราใช้ ChatGPT ในปัจจุบันโดยที่บอทไม่หลงทางในพิษร้าย เหยียดเชื้อชาติ และรุนแรง
อ่านเพิ่มเติม:generative AI เป็นผลมาจากการแฮ็กงานศิลปะครั้งใหญ่ที่สุดในประวัติศาสตร์หรือไม่?
AI “ตำรวจ” ที่ได้รับการฝึกฝนจากเว็บที่แย่ที่สุด
เพื่อให้เข้าใจอย่างถ่องแท้ถึงสิ่งที่คนงานที่ได้รับค่าจ้างต่ำเหล่านี้ต้องอดทน อันดับแรกเราต้องอธิบายอย่างรวดเร็วว่า ChatGPT ได้รับการฝึกฝนอย่างไร และเทคนิคของ OpenAI เพื่อป้องกันไม่ให้เกิดวาทกรรมที่เป็นพิษ "ความฉลาด" ของบอทมาจากการรวบรวมและวิเคราะห์ชุดคำศัพท์นับพันล้านชุดที่นำมาจากเว็บ ผลรวมซึ่งแน่นอนว่ายังรวมถึงปริมาณที่เลวร้ายที่สุดที่เกิดจากการแลกเปลี่ยนของมนุษย์... และที่พบในแบบจำลองเมื่อได้รับการฝึกอบรมแล้ว
อย่างไรก็ตาม เป็นไปไม่ได้ที่ OpenAI จะตรวจสอบองค์ประกอบเหล่านี้ "ด้วยมือ" เนื่องจากอาจต้องใช้เวลาหลายปี จึงมีแนวคิดในการบูรณาการกลไกการป้องกันเข้ากับ ChatGPT ซึ่งเป็น AI ประเภท “ตำรวจ” ที่ได้รับการฝึกฝนโดยมนุษย์ ซึ่งสามารถจำกัดวาทกรรมที่เป็นพิษที่เกิดจากแบบจำลองได้ ในการดำเนินการนี้ จะต้อง "ป้อน" ด้วยข้อความประเภทอื่นๆ ที่เฉพาะเจาะจงมาก เช่น แสดงความเกลียดชัง เนื้อหาทางเพศที่โจ่งแจ้ง ความรุนแรง คำพูดที่เป็นพิษเป็นภัย ฯลฯ
เหล่านี้คือข้อความเหล่านี้, ดึงออกมาตามเวลา “จากมุมที่มืดมนที่สุดของอินเทอร์เน็ต”ซึ่งถูกส่งไปยังคนงานชาวเคนยาของ Sama เพื่อ 'ติดฉลาก' เนื้อหาที่น่ากลัวซึ่งอธิบายโดยละเอียด“การล่วงละเมิดทางเพศเด็ก การร่วมประเวณีระหว่างสัตว์กับสัตว์ การฆาตกรรม การทรมาน การทำร้ายตัวเอง และการร่วมประเวณีระหว่างพี่น้อง”
พวก “ผู้ติดป้าย” ของสามมารนั้นเวลาสามารถสัมภาษณ์ได้ว่าต้องอธิบายเครื่องจักรประเภทนี้ประมาณ 150 ถึง 250 ข้อความต่อวัน ประกอบด้วย 100 ถึง 1,000 คำต่อการทำงาน 9 ชั่วโมงต่อวัน ในส่วนของเขา Sama กล่าวถึงเนื้อหาที่ต่ำกว่าประมาณ 70 ชิ้นต่อวัน ไม่ว่า: ความรุนแรงทางจิตใจของงานดังกล่าวอาจเป็นเรื่องกระทบกระเทือนจิตใจได้ พนักงานที่นิตยสารสัมภาษณ์ถึงกับพูดถึง “การทรมาน» จำต้องติดป้าย เช่น เนื้อหาบรรยาย“ชายมีเพศสัมพันธ์กับสุนัขต่อหน้าเด็ก”
เมื่อเผชิญกับความยากลำบากในงานนี้ พนักงานจึงสามารถเข้าถึงความช่วยเหลือด้านจิตใจจากท่านซามะได้อย่างแน่นอน แต่พนักงานที่สัมภาษณ์เชื่อว่าส่วนใหญ่ยังไม่เพียงพอเมื่อพิจารณาจากเนื้อหาที่พวกเขาเผชิญและประสิทธิภาพการทำงานที่ต้องการ
สัญญามากเกินไป
นอกเหนือจากการติดป้ายกำกับข้อความที่มีความรุนแรงแล้ว OpenAI ได้ทำสัญญาอีกฉบับกับ Sama ซึ่งนำไปสู่การยุติความร่วมมืออย่างเร่งรีบ ในเดือนกุมภาพันธ์ 2565 ผู้สร้าง ChatGPT ขอให้ผู้ให้บริการรวบรวม “ภาพทางเพศและความรุนแรง» สำหรับอีกโครงการหนึ่งของเขา “ขั้นตอนที่จำเป็นเพื่อทำให้เครื่องมือของคุณปลอดภัยยิ่งขึ้น- บริษัทดำเนินการดังกล่าวและรวบรวมภาพได้ 1,400 ภาพ รวมถึงภาพถ่ายที่ผิดกฎหมายอย่างชัดเจน รวมถึงภาพความรุนแรงทางเพศต่อเด็ก การข่มขืน การฆาตกรรม... คอลเลกชันที่สร้างความกังวลอย่างรวดเร็วให้กับสาขาในแอฟริกา และนำไปสู่การยุติการเริ่มสัญญาก่อนกำหนดซึ่งยังคงอยู่ เป็นเวลาแปดเดือน
ทั้งสองบริษัทกำลังเสียเงินในเรื่องนี้ Sama ระบุว่า OpenAI ได้ส่งไปแล้ว“คำแนะนำเพิ่มเติมเกี่ยวกับหมวดหมู่ที่ผิดกฎหมายบางประเภท”หลังจากลงนามในสัญญาซึ่งผลักดันให้เขาทำลายมันและไล่ผู้จัดการที่ยอมรับเงื่อนไขออกไป -
ในส่วนของ OpenAI ไม่ได้ปฏิเสธว่าได้รับภาพลามกอนาจารเด็ก แต่ปฏิเสธว่าไม่ได้ร้องขอ ในการแถลงข่าวส่งถึงเวลาเธอพยายามพิสูจน์ตัวเอง: “ทันทีที่ Sama บอกเราว่าพวกเขาพยายามรวบรวมเนื้อหาในหมวดหมู่นี้ เราก็ระบุว่ามีการสื่อสารที่ผิดพลาดและเราไม่ต้องการเนื้อหานั้น และหลังจากทราบว่ามีข้อผิดพลาดในการสื่อสาร เราไม่ได้เปิดหรือดูเนื้อหาที่เป็นปัญหา -
ด้านมืดของเอไอ
การสำรวจครั้งนี้เตือนเราว่าเบื้องหลังเครื่องมือใหม่ๆ เหล่านี้ที่ทำให้เราประหลาดใจ มีความจริงอันมืดมนที่ต้องจำไว้เสมอ นั่นคือ พวกมันต้องการให้มนุษย์ดูเนื้อหาที่น่ารังเกียจ ซึ่งอาจส่งผลกระทบต่อสุขภาพจิตของพวกเขาได้ นี่เป็นปัญหามากขึ้นเรื่อยๆ เนื่องจากพนักงานที่ใช้สำหรับงานนี้ได้รับค่าจ้างไม่ดีและได้รับการสนับสนุนทางจิตวิทยาน้อยมาก น่าละอายเมื่อบริษัทที่จ้างงานเหล่านี้ซึ่งมักจะใช้ความระมัดระวังอย่างยิ่ง มีมูลค่าหลายหมื่นล้านดอลลาร์ เพื่อเป็นการเตือนความจำ OpenAI มีมูลค่าอยู่ที่ 29 พันล้านดอลลาร์
ในส่วนของเขา Sama ได้ตัดสินใจที่จะหยุดค่าใช้จ่ายไม่ว่าในกรณีใดก็ตาม ปีที่แล้วเธอมีถูกตรึงไว้แล้วโดยเวลาสำหรับสภาพการทำงานที่น่าเสียดายของพนักงานชาวเคนยาที่รับผิดชอบในการกลั่นกรองแพลตฟอร์มของ Meta เมื่อไม่กี่วันที่ผ่านมา บริษัทได้ประกาศว่าจะยุติความร่วมมือกับบริษัทของ Mark Zuckerberg รวมถึงงานติดป้ายกำกับสำหรับโปรแกรมสร้างข้อความ ตอนนี้เธอจะอุทิศตนให้กับงานนี้โดยเฉพาะ“คำอธิบายประกอบข้อมูลการมองเห็นของคอมพิวเตอร์”
ท่านจึงถอนตัวออกจากเกม แต่เช่นเดียวกับธรรมชาติ ตลาด AI กำเนิดใหม่เกลียดสุญญากาศ คนอื่นๆ จะเข้ามาแทนที่เพื่อตอบสนองความต้องการมือเล็กๆ ที่เพิ่มขึ้นซึ่งจำเป็นในการฝึกอัลกอริธึมเหล่านี้ ท้ายที่สุดแล้ว บางทีการออกแบบ AI ที่มีจริยธรรมและปราศจากอคติอาจเริ่มต้นได้ตั้งแต่เนิ่นๆ โดยการปกป้องผู้ที่สร้างมันขึ้นมาในส่วนลึกของเน็ต
🔴 เพื่อไม่ให้พลาดข่าวสารจาก 01net ติดตามเราได้ที่Google ข่าวสารetวอทส์แอพพ์-
แหล่งที่มา : เวลา