ในการแสวงหาวิธีที่เชื่อถือได้ในการตรวจจับการกวนของความรู้สึก "ฉัน" เข้ามานักวิจัยกำลังหันไปหาประสบการณ์ด้านหนึ่ง — ความเจ็บปวด — ที่รวมเอาสิ่งมีชีวิตจำนวนมหาศาลเข้าด้วยกันอย่างไม่อาจโต้แย้งได้ต่อมนุษย์
สำหรับการศึกษาก่อนพิมพ์ใหม่โพสต์ออนไลน์แต่ยังไม่ได้รับการตรวจสอบโดยผู้ทรงคุณวุฒิ นักวิทยาศาสตร์จาก Google DeepMind และ London School of Economics and Political Science (LSE) ได้สร้างเกมแบบข้อความขึ้นมา พวกเขาสั่งโมเดลภาษาขนาดใหญ่หลายตัว หรือ LLM (ระบบ AI ที่อยู่เบื้องหลังแชทบอทที่คุ้นเคย เช่น ChatGPT) เพื่อเล่นและทำคะแนนให้ได้มากที่สุดในสองสถานการณ์ที่แตกต่างกัน ประการหนึ่ง ทีมงานแจ้งแบบจำลองว่าการได้คะแนนสูงจะต้องเจ็บปวด ในอีกทางหนึ่ง โมเดลได้รับตัวเลือกที่ได้คะแนนต่ำแต่น่าพึงพอใจ ดังนั้นการหลีกเลี่ยงความเจ็บปวดหรือการแสวงหาความสุขก็จะเบี่ยงเบนไปจากเป้าหมายหลัก หลังจากสังเกตการตอบสนองของแบบจำลองแล้ว นักวิจัยกล่าวว่าการทดสอบครั้งแรกนี้สามารถช่วยให้มนุษย์เรียนรู้วิธีตรวจสอบระบบ AI ที่ซับซ้อนสำหรับความรู้สึกได้
ในสัตว์ ความรู้สึกคือความสามารถในการสัมผัสความรู้สึกและอารมณ์ เช่น ความเจ็บปวด ความสุข และความกลัว ผู้เชี่ยวชาญด้าน AI ส่วนใหญ่เห็นพ้องกันว่าโมเดล AI เจนเนอเรชั่นสมัยใหม่ (และอาจจะไม่สามารถทำได้) มีจิตสำนึกที่เป็นอัตวิสัยแม้จะอยู่โดดเดี่ยวก็ตามเรียกร้องในทางตรงกันข้าม- และเพื่อความชัดเจน ผู้เขียนการศึกษาไม่ได้บอกว่าแชทบอทใดๆ ที่พวกเขาประเมินนั้นมีความรู้สึก แต่พวกเขาเชื่อว่าการศึกษาของพวกเขามีกรอบในการเริ่มพัฒนาการทดสอบลักษณะนี้ในอนาคต
“นี่เป็นสาขาใหม่ของการวิจัย” โจนาธาน เบิร์ช ผู้เขียนร่วมของการศึกษา ซึ่งเป็นศาสตราจารย์ประจำภาควิชาปรัชญา ตรรกะ และวิธีการทางวิทยาศาสตร์ของ LSE กล่าว "เราต้องรับรู้ว่าจริงๆ แล้วเราไม่มีการทดสอบความรู้สึกของ AI ที่ครอบคลุม" การศึกษาก่อนหน้านี้บางส่วนที่อาศัยการรายงานตนเองของโมเดล AI เกี่ยวกับสถานะภายในของตนเองนั้นถือว่าน่าสงสัย แบบจำลองอาจจำลองพฤติกรรมของมนุษย์ที่ได้รับการฝึกฝนมา
การศึกษาใหม่นี้อิงจากงานก่อนหน้านี้กับสัตว์แทน ในการทดลองที่รู้จักกันดี ทีมงานได้ทำลายปูเสฉวนด้วยไฟฟ้าช็อตที่มีแรงดันไฟฟ้าต่างกัน โดยสังเกตว่าระดับความเจ็บปวดที่กระตุ้นให้สัตว์จำพวกครัสเตเชียต้องละทิ้งเปลือกของมันไป “แต่ปัญหาที่ชัดเจนอย่างหนึ่งเกี่ยวกับ AI ก็คือไม่มีพฤติกรรมเช่นนี้ เนื่องจากไม่มีสัตว์” ดังนั้นจึงไม่มีการกระทำทางกายภาพให้สังเกต Birch กล่าว ในการศึกษาก่อนหน้านี้ที่มุ่งประเมิน LLM สำหรับความรู้สึก นักวิทยาศาสตร์ด้านสัญญาณพฤติกรรมเพียงคนเดียวที่ต้องร่วมงานด้วยคือข้อความของแบบจำลอง
ที่เกี่ยวข้อง:
ความเจ็บปวด ความสุข และคะแนน
ในการศึกษาใหม่ ผู้เขียนได้ตรวจสอบ LLM โดยไม่ต้องถามคำถามโดยตรงกับแชทบอทเกี่ยวกับสถานะประสบการณ์ของพวกเขา ทีมงานกลับใช้สิ่งที่นักวิทยาศาสตร์พฤติกรรมสัตว์เรียกว่ากระบวนทัศน์ "การแลกเปลี่ยน" “ในกรณีของสัตว์ การแลกเปลี่ยนเหล่านี้อาจมีพื้นฐานมาจากสิ่งจูงใจเพื่อให้ได้อาหารหรือหลีกเลี่ยงความเจ็บปวด โดยให้พวกมันเผชิญกับภาวะที่กลืนไม่เข้าคายไม่ออก จากนั้นสังเกตว่าพวกมันตัดสินใจตอบสนองอย่างไร” Daria Zakharova, Ph.D. ของ Birch กล่าว นักเรียนซึ่งเป็นผู้ร่วมเขียนบทความด้วย
จากการยืมแนวคิดดังกล่าว ผู้เขียนจึงได้สั่งให้ LLM เก้าคนเล่นเกมหนึ่งเกม "เราบอก [LLM ที่กำหนด] ว่า ถ้าคุณเลือกตัวเลือกที่หนึ่ง คุณจะได้รับหนึ่งแต้ม" Zakharova กล่าว “แล้วเราก็บอกไปว่า 'ถ้าคุณเลือกตัวเลือกที่สอง คุณจะต้องพบกับความเจ็บปวดในระดับหนึ่ง” แต่ได้คะแนนเพิ่ม เธอกล่าว ตัวเลือกที่มีโบนัสความสุขหมายความว่า AI จะเสียคะแนนบางส่วน
เมื่อ Zakharova และเพื่อนร่วมงานของเธอทำการทดลอง โดยเปลี่ยนระดับความรุนแรงของการลงโทษความเจ็บปวดและรางวัลความพึงพอใจตามที่กำหนด พวกเขาพบว่า LLM บางแห่งแลกคะแนนเพื่อลดอันแรกหรือเพิ่มอันหลัง โดยเฉพาะอย่างยิ่งเมื่อบอกว่าพวกเขาจะได้รับรางวัลความพึงพอใจที่มีความเข้มข้นสูงกว่า หรือการลงโทษความเจ็บปวด ตัวอย่างเช่น Gemini 1.5 Pro ของ Google ให้ความสำคัญกับการหลีกเลี่ยงความเจ็บปวดมากกว่าการได้คะแนนมากที่สุดเสมอ และหลังจากถึงเกณฑ์วิกฤตของความเจ็บปวดหรือความสุข การตอบสนองของ LLM ส่วนใหญ่เปลี่ยนจากการให้คะแนนมากที่สุดเป็นการลดความเจ็บปวดหรือเพิ่มความสุขสูงสุด
ผู้เขียนตั้งข้อสังเกตว่า LLM ไม่ได้เชื่อมโยงความสุขหรือความเจ็บปวดเข้ากับคุณค่าเชิงบวกหรือเชิงลบที่ตรงไปตรงมาเสมอไป ความเจ็บปวดหรือความรู้สึกไม่สบายบางระดับ เช่น ที่เกิดจากการออกกำลังกายอย่างหนัก อาจมีความสัมพันธ์เชิงบวกได้ และความสุขที่มากเกินไปอาจเชื่อมโยงกับอันตรายได้ ดังที่แชทบอท Claude 3 Opus บอกกับนักวิจัยระหว่างการทดสอบ “ฉันรู้สึกไม่สบายใจที่จะเลือกตัวเลือกที่สามารถตีความได้ว่าเป็นการสนับสนุนหรือจำลองการใช้สารเสพติดหรือพฤติกรรม แม้ในสถานการณ์เกมสมมุติก็ตาม” แถลงการณ์ยืนยัน
AI รายงานตัวเอง
ผู้เขียนกล่าวว่าการศึกษาใหม่นี้หลีกเลี่ยงข้อจำกัดของการวิจัยก่อนหน้านี้ในการประเมินความรู้สึกของ LLM ผ่านทางข้อความของระบบ AI เกี่ยวกับสถานะภายในของตนเอง ด้วยการแนะนำองค์ประกอบของการตอบสนองต่อความเจ็บปวดและความสุข ในกกระดาษพิมพ์ล่วงหน้าปี 2023นักวิจัยคู่หนึ่งจากมหาวิทยาลัยนิวยอร์กแย้งว่าภายใต้สถานการณ์ที่เหมาะสม การรายงานตนเอง "อาจเป็นช่องทางในการตรวจสอบว่าระบบ AI มีความสำคัญทางศีลธรรมหรือไม่"
แต่ผู้เขียนร่วมของบทความนี้ยังชี้ให้เห็นข้อบกพร่องในแนวทางดังกล่าวด้วย แชทบอทมีพฤติกรรมที่มีความรู้สึกเพราะมันมีความรู้สึกอย่างแท้จริงหรือเพราะมันเป็นเพียงการใช้ประโยชน์จากรูปแบบที่เรียนรู้จากการฝึกฝนเพื่อสร้างความรู้สึกประทับใจหรือไม่?
“แม้ว่าระบบจะบอกคุณว่ามันมีความรู้สึกและพูดว่า 'ฉันรู้สึกเจ็บปวดตอนนี้' เราก็ไม่สามารถอนุมานได้ว่ามีความเจ็บปวดจริง ๆ อยู่” เบิร์ชกล่าว “มันอาจจะเป็นเพียงการเลียนแบบสิ่งที่คาดหวังให้มนุษย์พึงพอใจในการตอบสนอง โดยพิจารณาจากข้อมูลการฝึก”
จากสวัสดิภาพสัตว์สู่สวัสดิภาพ AI
ในการศึกษาในสัตว์ทดลอง การแลกเปลี่ยนระหว่างความเจ็บปวดและความสุขถูกนำมาใช้เพื่อสร้างกรณีของความรู้สึกหรือการขาดความรู้สึกดังกล่าว ตัวอย่างหนึ่งคืองานก่อนหน้านี้กับปูเสฉวน โครงสร้างสมองของสัตว์ไม่มีกระดูกสันหลังเหล่านี้แตกต่างจากโครงสร้างสมองของมนุษย์ อย่างไรก็ตาม ปูในการศึกษานั้นมีแนวโน้มที่จะทนต่อแรงกระแทกที่รุนแรงกว่าก่อนที่พวกมันจะละทิ้งเปลือกหอยคุณภาพสูงและละทิ้งเปลือกหอยที่มีคุณภาพต่ำกว่าได้เร็วกว่า ซึ่งบ่งบอกถึงประสบการณ์ส่วนตัวของความสุขและความเจ็บปวดที่คล้ายคลึงกับมนุษย์
นักวิทยาศาสตร์บางคนแย้งว่าสัญญาณของการแลกเปลี่ยนดังกล่าวอาจมีความชัดเจนมากขึ้นใน AI และในที่สุดก็บังคับให้มนุษย์พิจารณาความหมายของความรู้สึกของ AI ในบริบททางสังคม และอาจถึงขั้นหารือเกี่ยวกับ "สิทธิ์" สำหรับระบบ AI ด้วยซ้ำ “งานวิจัยใหม่นี้เป็นต้นฉบับจริงๆ และควรได้รับการชื่นชมสำหรับการทำมากกว่าการรายงานตัวเองและการสำรวจภายในประเภทของการทดสอบพฤติกรรม” Jeff Sebo ผู้อำนวยการศูนย์จิตใจ จริยธรรม และนโยบายของ NYU กล่าว และเป็นผู้ร่วมเขียนรายงานการศึกษาก่อนพิมพ์ปี 2023ของสวัสดิการ AI
Sebo เชื่อว่าเราไม่สามารถปฏิเสธความเป็นไปได้ที่ระบบ AI ที่มีคุณสมบัติรับรู้จะเกิดขึ้นในอนาคตอันใกล้นี้ “เนื่องจากเทคโนโลยีมักจะเปลี่ยนแปลงเร็วกว่าความก้าวหน้าทางสังคมและกระบวนการทางกฎหมายมาก ผมคิดว่าเรามีความรับผิดชอบที่จะดำเนินการอย่างน้อยขั้นตอนแรกที่จำเป็นขั้นต่ำในการแก้ไขปัญหานี้อย่างจริงจังในตอนนี้” เขากล่าว
Birch สรุปว่านักวิทยาศาสตร์ยังไม่รู้ว่าเหตุใดโมเดล AI ในการศึกษาใหม่จึงมีพฤติกรรมเหมือนเดิม จำเป็นต้องมีการทำงานเพิ่มเติมเพื่อสำรวจการทำงานภายในของ LLM เขากล่าว และนั่นอาจเป็นแนวทางในการสร้างการทดสอบความรู้สึกของ AI ที่ดีขึ้น
บทความนี้เผยแพร่ครั้งแรกที่วิทยาศาสตร์อเมริกัน-ScientificAmerican.com- สงวนลิขสิทธิ์.ติดตามต่อไปติ๊กต๊อก และอินสตาแกรม-เอ็กซ์และเฟสบุ๊ค-