ในคอลัมน์ที่เผยแพร่บนเว็บไซต์นิตยสารไทม์ นักวิจัยและนักทฤษฎีที่เชี่ยวชาญด้านปัญญาประดิษฐ์ อธิบายถึงความเสี่ยงที่เกี่ยวข้องกับการพัฒนา AI ที่เร็วเกินไป เขาไม่ลังเลที่จะพูดถึงความเป็นไปได้ของการหายตัวไปของมนุษยชาติ
Eliezer Yudkowsky วัย 43 ปี เป็นผู้นำการวิจัยที่สถาบันวิจัยปัญญาเครื่อง(MIRI) สมาคมไม่แสวงหากำไรที่เชี่ยวชาญด้านปัญญาประดิษฐ์ โดยมีวัตถุประสงค์เพื่อสร้างความตระหนักถึงอันตรายและผลประโยชน์ที่อาจเกิดขึ้นของ AI ในอนาคต มันวาดภาพอนาคตของมนุษยชาติที่มืดมนหากปัญญาประดิษฐ์ยังคงพัฒนาต่อไปด้วยความเร็วนี้
ข้ามเส้นวิกฤตโดยไม่รู้ตัว
ในขณะที่นักวิทยาศาสตร์หลายร้อยคนเรียกร้องให้หยุดพักอย่างน้อยหกเดือนในการวิจัยเกี่ยวกับ AI Yudkowsky เชิญชวนผู้นำและผู้เชี่ยวชาญในภาคส่วนนี้ให้หยุดทุกอย่างเป็นระยะเวลาไม่มีกำหนด มิฉะนั้นพวกเขาจะก้าวข้ามเกณฑ์วิกฤตซึ่งเกินกว่าที่จะย้อนกลับไปไม่ได้ สำหรับนักวิจัยชาวอเมริกัน“เป็นไปได้โดยสิ้นเชิงที่ห้องปฏิบัติการวิจัยจะข้ามเส้นวิกฤตโดยไม่รู้ตัว”-
ตามที่เขาพูด "เส้นวิกฤต" นี้แสดงโดยนักพัฒนา AI ที่มีความฉลาดเหนือมนุษย์ ซึ่งจะนำไปสู่จุดจบของมนุษยชาติในสถานการณ์ปัจจุบัน สำหรับ Yudkowsky มันเป็นไปได้ที่จะเอาตัวรอดโดยสิ้นเชิงด้วยการสร้างสิ่งที่ฉลาดกว่าเรามาก แต่สิ่งนี้จำเป็นต้องมี“ความแม่นยำ การเตรียมตัว และความรู้ทางวิทยาศาสตร์ใหม่ๆ”ซึ่งเรายังไม่มีในตอนนี้
“หากไม่มีความแม่นยำและการเตรียมตัว ผลลัพธ์ที่เป็นไปได้มากที่สุดก็คือ AI ที่ไม่ทำตามที่เราต้องการ และไม่สนใจเราหรือชีวิตที่มีความรู้สึกโดยทั่วไป -
เพื่อแสดงให้เห็นสถานการณ์ที่มนุษยชาติจะพบว่าตัวเอง นักวิทยาศาสตร์ใช้คำอุปมาอุปมัยหลายประการ สองในนั้นคือ“ออสตราโลพิเทคัสพยายามต่อสู้กับโฮโมเซเปียนส์-et“ศตวรรษที่ 11 พยายามต่อสู้กับศตวรรษที่ 21”-
AI เหนือมนุษย์ที่เป็นมิตรอาจไม่ได้จำกัดอยู่เฉพาะในคอมพิวเตอร์เท่านั้น Yudkowsky ชี้ให้เห็นว่าขณะนี้มีความเป็นไปได้ที่จะส่งสาย DNA ทางอีเมลไปยังห้องปฏิบัติการที่จะผลิตโปรตีนตามความต้องการ ทำให้ AI สามารถสร้างรูปแบบชีวิตเทียมได้
“หากมีใครสร้าง AI ที่ทรงพลังเกินไปภายใต้สภาวะปัจจุบัน ฉันคาดหวังว่าสมาชิกทุกคนของสายพันธุ์มนุษย์และชีวิตทางชีววิทยาทั้งหมดบนโลกจะตายหลังจากนั้นไม่นาน -
ขาดการวางแผน
Eliezer Yudkowsky ยังชี้ให้เห็นถึงการขาดแผนจากบริษัทที่อยู่เบื้องหลัง AI หากสถานการณ์ดังกล่าวเกิดขึ้น
“ความตั้งใจที่เปิดเผยอย่างเปิดเผยของ OpenAI คือการให้ AI ในอนาคตมาทำการบ้านการจัดตำแหน่ง AI ของเรา แค่ได้ยินแผนนี้ก็น่าจะเพียงพอแล้วที่จะทำให้คนที่มีสติตื่นตระหนก ห้องแล็บ AI ขนาดใหญ่อีกแห่งอย่าง DeepMind ไม่มีแผน -
แม้ว่าเขาจะยอมรับว่า AI ในปัจจุบันอาจแค่เลียนแบบการพูดถึงการตระหนักรู้ในตนเองจากข้อมูลการฝึกอบรม เขายังตั้งข้อสังเกตอีกว่าเรามีข้อมูลเพียงเล็กน้อยเกี่ยวกับส่วนประกอบภายในของระบบเหล่านี้ รัฐนี้« ความไม่รู้ »ตามที่เขาพูด ยิ่งน่ากังวลมากขึ้นหาก ChatGPT-5 ประสบความสำเร็จอย่างก้าวกระโดดอย่างมีนัยสำคัญที่สังเกตได้ระหว่าง GPT-3 และ GPT-4-
“หากคุณไม่แน่ใจเกี่ยวกับการสร้าง AI แบบตระหนักรู้ในตนเอง นั่นน่าตกใจไม่เพียงเพราะผลกระทบทางศีลธรรมเท่านั้น แต่ยังเป็นเพราะความไม่มั่นใจหมายความว่าคุณไม่รู้ว่ากำลังทำอะไรอยู่ มันอันตรายและคุณควรหยุด -
CEO ของ OpenAI เองก็บอกว่าเขามี“กลัวนิดหน่อย”โดยระลึกได้ว่ายังคงอยู่“เครื่องมือภายใต้การควบคุมของมนุษย์”- สำหรับ Yudkowsky จะใช้เวลาอย่างน้อย 30 ปีในการแก้ไขปัญหาที่เกี่ยวข้องกับความปลอดภัยของสติปัญญาเหนือมนุษย์ สำหรับนักวิจัย การเลื่อนการชำระหนี้เกี่ยวกับปัญญาประดิษฐ์จะต้องไม่มีกำหนดและเป็นสากล โดยไม่มีข้อยกเว้นใดๆ รวมถึงรัฐบาลหรือกองทัพด้วย
“เราไม่ได้เตรียมตัวให้พร้อมทันเวลา ไม่มีแผน ความก้าวหน้าในความสามารถของ AI นั้นล้ำหน้าความก้าวหน้าในการจัดตำแหน่ง AI หรือแม้แต่ความก้าวหน้าในการทำความเข้าใจสิ่งที่เกิดขึ้นภายในระบบเหล่านี้ ถ้าเราทำเช่นนี้เราทุกคนจะตาย ปิดทุกอย่าง. -
🔴 เพื่อไม่พลาดข่าวสาร 01net ติดตามเราได้ที่Google ข่าวสารetวอทส์แอพพ์-
แหล่งที่มา : เวลา