ผู้นำและผู้เชี่ยวชาญในภาคส่วนปัญญาประดิษฐ์เรียกร้องให้พักการวิจัยเป็นเวลา 6 เดือน เหตุผล: “ความเสี่ยงอย่างลึกซึ้งต่อสังคมและมนุษยชาติ” ที่ระบบเหล่านี้จะเกิดขึ้น
เร็วเกินไป อันตรายเกินไปสำหรับมนุษยชาติ นี่คือจดหมายที่กล่าวถึงสิ่งที่ไม่คาดคิดน้อยที่สุด ซึ่งเผยแพร่เมื่อวันพุธที่ 29 มีนาคมนี้ พร้อมลงนามโดยผู้คนหลายพันคน รวมถึงผู้นำจากโลกแห่งเทคโนโลยีและปัญญาประดิษฐ์(เอไอ) ชอบอีลอน มัสก์และผู้เชี่ยวชาญในอุตสาหกรรม ทุกคนเรียกร้องให้มีการเลื่อนการชำระหนี้ชั่วคราวเป็นเวลา 6 เดือน ซึ่งเป็นการหยุดอันเป็นประโยชน์ต่อมนุษยชาติ โดยเรียกร้องให้ศูนย์วิจัยทั่วโลกหยุดการทำงานกับระบบขั้นสูงเหล่านี้ทันที -เราขอเรียกร้องให้ห้องปฏิบัติการปัญญาประดิษฐ์ทั้งหมดหยุดการฝึกอบรมระบบปัญญาประดิษฐ์ที่มีประสิทธิภาพมากกว่า GPT-4 เป็นเวลาอย่างน้อยหกเดือนทันที» พวกเขาเขียนไว้ในคำนำ
-ระบบ AI ที่มีประสิทธิภาพควรได้รับการพัฒนาเมื่อเราแน่ใจว่าผลกระทบจะเป็นเชิงบวกและสามารถจัดการความเสี่ยงได้เท่านั้น» พวกเขาเพิ่มในจดหมายฉบับนี้ ซึ่งจัดพิมพ์โดยสถาบัน Future of Life ที่ไม่แสวงหากำไร วันพุธที่ 29 มีนาคมนี้ ช่วงต้นช่วงบ่าย มีผู้ลงนามแล้ว 1,123 คน รวมถึงบุคคลสำคัญด้านเทคโนโลยีและ AI เช่น เจ้านายของ Tesla และ Twitter Elon Musk ผู้ร่วมก่อตั้ง Apple Steve Wozniak นักวิจัยจาก DeepMind ซึ่งเป็นเจ้าของโดย Alphabet – บริษัทแม่ของ Google หรือแม้แต่บุคคลสำคัญด้าน AI เช่น Yoshua Bengio, Stuart Russell และ Gary Marcus คนเหล่านี้เรียกร้องให้มีการพัฒนา นำไปใช้ และตรวจสอบโปรโตคอลความปลอดภัยที่มีจริยธรรมและโปร่งใสโดยผู้เชี่ยวชาญอิสระ ก่อนที่การพัฒนาใดๆ จะดำเนินการต่อ
“เราควรทำให้งานทั้งหมดเป็นแบบอัตโนมัติ รวมถึงงานที่ให้รางวัลด้วยหรือไม่? -
ในบรรดาความเสี่ยงที่อ้างถึง จดหมายซึ่งมีน้ำเสียงตื่นตระหนกเน้นว่า “ที่จะสูญเสียการควบคุมอารยธรรมของเรา- ซีส «ในช่วงไม่กี่เดือนที่ผ่านมา ห้องปฏิบัติการ AI ติดอยู่ในการแข่งขันที่ไม่สามารถควบคุมได้เพื่อพัฒนาและปรับใช้จิตใจดิจิทัลที่ทรงพลังยิ่งขึ้น ซึ่งไม่มีใครแม้แต่ผู้สร้างสามารถเข้าใจ คาดการณ์ หรือควบคุมได้อย่างน่าเชื่อถือ», เขียนผู้เขียน โดยเชิญกลุ่มวิจัยทุกกลุ่มที่ทำงานในเรื่องนี้มาทำงานร่วมกับหน่วยงานกำกับดูแล
จดหมายยังกล่าวถึงผลกระทบที่เป็นรูปธรรมที่ AI อาจมีต่อสังคมของเรา โดยถามว่า: “เราควรปล่อยให้เครื่องจักรท่วมช่องทางข้อมูลของเราด้วยการโฆษณาชวนเชื่อและการโกหกหรือไม่? เราควรทำให้งานทั้งหมดเป็นแบบอัตโนมัติหรือไม่ รวมถึงงานที่ให้รางวัลด้วย"เหมือนคนที่ทำให้เรารู้สึกถึงความสำเร็จ? เพียงพอที่จะสะท้อนคำถามง่ายๆ ที่ถามเมื่อหลายสัปดาห์ก่อนโดย Susie Alegre นักเขียนชาวอังกฤษที่ตกเป็นเหยื่อของการลอกเลียนแบบ: “ทำไมไม่ใช้ AI เพียงเพื่อทดแทนสิ่งที่เราไม่ชอบทำ?-
อ่านเพิ่มเติม: ChatGPT: จำนวนงานที่น่ากลัวที่ถูกคุกคามโดย AI ตามข้อมูลของ Goldman Sachs
จดหมายจะถูกดำเนินการหรือไม่?
-จดหมายไม่สมบูรณ์แบบ แต่จิตวิญญาณถูกต้อง เราต้องชะลอความเร็วลงจนกว่าเราจะเข้าใจการแตกสาขาได้ดีขึ้น» (ของ AI) ประกาศศาสตราจารย์ Gary Marcus หนึ่งในผู้ลงนามในจดหมายถึงเพื่อนร่วมงานของเราที่รอยเตอร์วันพุธที่ 29 มีนาคมนี้ จดหมายฉบับนี้จะตามมาหรือไม่? ปัจจุบันบริษัทต่างๆ ที่มีส่วนร่วมในการแข่งขัน AI จริงจะเสี่ยงต่อการถูกแซงหน้าในช่วงการปิดระบบนาน 6 เดือนนี้หรือไม่? จดหมายขอทุกกรณีว่าการพักครั้งนี้เป็น”สาธารณะและตรวจสอบได้- และถ้า “การหยุดชั่วคราวดังกล่าวไม่สามารถดำเนินการได้อย่างรวดเร็ว รัฐบาลจะต้องเข้าแทรกแซงและจัดให้มีการเลื่อนการชำระหนี้ชั่วคราว” มีเขียนไว้
อ่านเพิ่มเติม: สงสัยว่า AI ผลักชายคนหนึ่งให้ฆ่าตัวตาย
จดหมายดังกล่าวได้รวมข้อเรียกร้องอื่นๆ มากมายซึ่งจนถึงตอนนี้ก็ไร้ประโยชน์สำหรับการวัด การสะท้อน และการควบคุมระบบเหล่านี้ ในวันพุธนี้ ตำรวจสากล ตำรวจสหภาพยุโรป เตือนถึงการใช้ ChatGPT ในทางที่ผิดที่อาจเกิดขึ้นในการพยายามฟิชชิ่ง ข้อมูลบิดเบือน และอาชญากรรมในโลกไซเบอร์ การโทรทั้งหมดนี้อาจทำให้ตำแหน่งปัจจุบันของบริษัทส่วนใหญ่ที่ทำงานในภาค AI ลดลงในที่สุด – ตำแหน่งที่อธิบายโดยหมิ่นเหมือน “จัดส่งตอนนี้แล้วแก้ไขในภายหลัง" ซึ่งแปลได้ว่า "เราเริ่มตั้งแต่ตอนนี้ และเราจะซ่อมแซม (หากจำเป็นในภายหลัง)- ปัญหา: ด้วย AI สิ่งนี้”ซ่อมแซม» อาจเป็นไปไม่ได้
🔴 เพื่อไม่พลาดข่าวสาร 01net ติดตามเราได้ที่Google ข่าวสารetวอทส์แอพพ์-
แหล่งที่มา : จดหมายเปิดผนึกจากสถาบันอนาคตแห่งชีวิต