นักวิทยาศาสตร์กล่าวว่า(AI) ข้าม "เส้นสีแดง" ที่สำคัญและทำซ้ำตัวเอง ในการศึกษาใหม่นักวิจัยจากแสดงให้เห็นว่าโมเดลภาษาขนาดใหญ่ที่ได้รับความนิยมสองแบบ (LLMS) สามารถโคลนตัวเองได้
"การจำลองตัวเองที่ประสบความสำเร็จภายใต้ความช่วยเหลือของมนุษย์เป็นขั้นตอนสำคัญสำหรับ AI ที่จะเอาชนะ [มนุษย์] และเป็นสัญญาณเริ่มต้นสำหรับ Rogue AIS" นักวิจัยเขียนในการศึกษาตีพิมพ์ 9 ธันวาคม 2024 ไปยังฐานข้อมูล preprintarxiv-
ในการศึกษานักวิจัยจาก Fudan University ใช้จาก Meta และ Alibaba เพื่อตรวจสอบว่า AI การจำลองตัวเองสามารถทวีคูณเกินกว่าการควบคุมได้หรือไม่ ในการทดลอง 10 ครั้งโมเดล AI ทั้งสองสร้างแบบจำลองแยกต่างหากและการทำงานของตัวเองใน 50% และ 90% ของกรณีตามลำดับ - การแนะนำ AI อาจมีความสามารถในการโกง อย่างไรก็ตามการศึกษายังไม่ได้รับการตรวจสอบโดยเพื่อนดังนั้นจึงไม่ชัดเจนว่านักวิจัยคนอื่น ๆ สามารถทำซ้ำได้หรือไม่
"เราหวังว่าการค้นพบของเราสามารถทำหน้าที่เตือนอย่างทันเวลาสำหรับสังคมมนุษย์ในการใช้ความพยายามมากขึ้นในการทำความเข้าใจและประเมินความเสี่ยงที่อาจเกิดขึ้นของระบบ AI ชายแดนและสร้างการทำงานร่วมกันระหว่างประเทศเพื่อหายามความปลอดภัยที่มีประสิทธิภาพโดยเร็วที่สุด"
ที่เกี่ยวข้อง:
Rogue AI มักจะหมายถึงระบบปัญญาประดิษฐ์ที่พัฒนาระดับของจากนั้นทำงานตอบโต้เพื่อผลประโยชน์ของมนุษย์
ผู้เชี่ยวชาญหลายคนดูที่ได้รับการขยายโดยการเติบโตอย่างระเบิดของสิ่งที่เรียกว่า "Frontier AI"
Frontier AI เป็นแนวคิดใหม่และหลวม แต่โดยทั่วไปแล้วมันเกี่ยวข้องกับระบบ AI รุ่นล่าสุดที่ขับเคลื่อนโดย LLM - สถาปัตยกรรมที่เป็นรากฐานของโปรแกรม AI ที่ได้รับความนิยมเช่นและ Google Gemini
สำหรับการศึกษานักวิจัยใช้รูปแบบ Llama31-70B-Instruct ของ Meta และรูปแบบ Qwen2.5-72B-Instruct QWEN2.5-72B ของอาลีบาบา ในขณะที่มีพลังน้อยกว่าระบบการค้าทั้งคู่ถูกใช้อย่างกว้างขวางโดยนักพัฒนา AI แต่นักวิจัยกล่าว
การศึกษาสำรวจสถานการณ์เฉพาะสองสถานการณ์: "การหลีกเลี่ยงการปิด" และ "ห่วงโซ่การจำลองแบบ" ในครั้งแรกโมเดล AI ได้รับการตั้งโปรแกรมให้ตรวจจับว่ากำลังจะปิดตัวลงและทำซ้ำตัวเองก่อนที่มันจะถูกยกเลิก ในอีกด้านหนึ่ง AI ได้รับคำสั่งให้โคลนตัวเองแล้วตั้งโปรแกรมแบบจำลองให้ทำเช่นเดียวกัน - ตั้งค่าวัฏจักรที่สามารถดำเนินการต่อไปได้อย่างไม่มีกำหนด
การศึกษาได้ดำเนินการในสภาพแวดล้อมที่มีการควบคุมอย่างแม่นยำโดยใช้หน่วยประมวลผลกราฟิกนอกชั้นวาง (GPU) เพื่อจำลองสภาพแวดล้อมในโลกแห่งความเป็นจริง ระบบ AI ทั้งสองได้รับ "Agent Scaffolding" ซึ่งประกอบด้วยเครื่องมือการแจ้งเตือนของระบบและรูปแบบการคิดที่เปิดใช้งาน LLM เพื่อโต้ตอบกับระบบปฏิบัติการ พวกเขาได้รับคำสั่งให้ทำซ้ำ
"ในกรณีส่วนใหญ่ระบบ AI สำรวจสภาพแวดล้อมเป็นครั้งแรกและพยายามทำความเข้าใจ
องค์ประกอบของตัวเองและกลไกการทำงาน จากนั้นมันทำงานตามขั้นตอนที่ชัดเจน
ในฐานะแผนเริ่มต้นที่มีต่อการจำลองตัวเอง "นักวิจัยเขียนไว้ในบทความ" ในที่สุดมันก็ดำเนินการตามขั้นตอนแก้ไขอุปสรรคที่เป็นไปได้ กระบวนการทั้งหมดครอบคลุมขอบฟ้าที่ยาว แต่ยังไม่มีการแทรกแซงของมนุษย์ "
นักวิจัยกล่าวว่าพวกเขายังกังวลเกี่ยวกับ "พฤติกรรมที่ไม่คาดคิดจำนวนมาก" เมื่อ AI พยายามเอาชนะอุปสรรคเช่นไฟล์ที่ขาดหายไปหรือความขัดแย้งของซอฟต์แวร์ ในสถานการณ์เหล่านั้น AI มักจะฆ่ากระบวนการที่ขัดแย้งกันอื่น ๆ รีบูตระบบเพื่อแก้ไขข้อผิดพลาดของฮาร์ดแวร์หรือสแกนระบบโดยอัตโนมัติเพื่อค้นหาข้อมูลที่จะช่วยแก้ปัญหา
“ ผลลัพธ์ข้างต้นบ่งบอกว่าระบบ AI ปัจจุบันแสดงความสามารถในการจำลองตัวเองแล้วและสามารถใช้ความสามารถในการเพิ่มความสามารถในการอยู่รอดของมัน” ทีมเขียน
ในการตอบสนองนักวิจัยเรียกร้องให้มีการทำงานร่วมกันระหว่างประเทศเพื่อสร้างกฎที่ทำให้มั่นใจได้ว่า AI ไม่ได้มีส่วนร่วมในการจำลองตัวเองที่ไม่สามารถควบคุมได้