หนึ่งในผู้ร่วมก่อตั้ง OpenAI เปิดตัว Safe Superintelligence Inc ซึ่งเป็นสตาร์ทอัพที่มุ่งเน้นด้าน AI ขั้นสูงและปลอดภัย ด้วยการรวบรวมทีมงานเล็กๆ ที่คัดเลือกมาอย่างดี บริษัทหวังที่จะพัฒนาปัญญาประดิษฐ์ใหม่ๆ
Ilya Sutskever หนึ่งในผู้ร่วมก่อตั้ง OpenAI เพิ่งประกาศเปิดตัวบริษัทใหม่ที่มุ่งเน้นด้านปัญญาประดิษฐ์ บัพติศมาสติปัญญาขั้นสูงที่ปลอดภัยอิงค์ ซึ่งสตาร์ทอัพจะเน้นไปที่การออกแบบก“สติปัญญาชั้นยอดที่ปลอดภัย”- ตามข่าวประชาสัมพันธ์ที่แบ่งปันโดย Ilya Sutskever นี่คือ“ปัญหาทางเทคนิคที่สำคัญที่สุดในยุคของเรา”-
แนวคิดนี้หมายถึงปัญญาประดิษฐ์ขั้นสูง ซึ่งเหนือกว่าความสามารถทางปัญญาของมนุษย์ในเกือบทุกด้านที่ยังคงอยู่สอดคล้องกับคุณค่าของความเป็นมนุษย์- บริษัทระบุว่ามีการจัดตั้งห้องปฏิบัติการเฉพาะสำหรับโครงการนี้แล้ว อีกทั้งได้นำกลุ่มมารวมตัวกัน“ทีมงานขนาดเล็กและมีความสามารถที่ประกอบด้วยวิศวกรและนักวิจัยที่ดีที่สุดในโลก”- เบื้องหลัง Safe Superintelligence เรายังพบ Daniel Gross อดีตหัวหน้าฝ่าย AI ของ Apple และ Daniel Levy อดีตผู้นำด้านวิทยาศาสตร์ในทีม OpenAI
อ่านเพิ่มเติม:OpenAI ยืนยันการเปิดตัว ChatGPT 5 ใกล้เข้ามาและรับประกัน "ระดับความสามารถ" ใหม่
ปลอดภัยไว้ก่อน
ตามชื่อบริษัทจะเน้นไปที่ความปลอดภัยของ AI ส่วนหนึ่งของแนวทางนี้ Safe Superintelligence จะขึ้นอยู่กับโมเดลธุรกิจที่รับประกันสิ่งนั้น“ความปลอดภัย การรักษาความปลอดภัย และความก้าวหน้าล้วนถูกป้องกันจากแรงกดดันทางการค้าในระยะสั้น”- อย่างเป็นรูปธรรม“ต้นทุนการจัดการค่าโสหุ้ยหรือวงจรผลิตภัณฑ์”จะไม่กวนใจนักวิทยาศาสตร์
“บริษัทนี้มีความพิเศษตรงที่ผลิตภัณฑ์แรกของบริษัทจะเป็นระบบอัจฉริยะที่ปลอดภัย และจะไม่ทำอะไรอย่างอื่นจนกว่าจะถึงตอนนั้น มันจะถูกแยกออกจากแรงกดดันภายนอกโดยสิ้นเชิงที่จะต้องสร้างผลิตภัณฑ์ขนาดใหญ่ที่ซับซ้อนและต้องติดอยู่ในการแข่งขันหนูแข่งขัน”, Ilya Sutskever กล่าวในการให้สัมภาษณ์กับบลูมเบิร์ก-
ด้วยวิธีนี้ นักวิจัยจะพัฒนา AI โดยไม่ต้องกังวลเกี่ยวกับการพิจารณาทางการเงินหรือเศรษฐกิจ และ“พัฒนาอย่างสันติ”, Sutskever กล่าวเสริม โดยปริยายดูเหมือนว่าผู้วิจัยจะวาดขึ้นภาพทิศทางที่สำคัญของ OpenAI- ภายใต้การนำของ Sam Altman สตาร์ทอัพรายนี้พบว่าตัวเองติดอยู่ในการแข่งขันที่บ้าคลั่งเพื่อมุ่งสู่ AI ที่มีประสิทธิภาพสูงสุด และกำลังขยายโมเดลภาษาใหม่ ๆ มากมาย หลังจากเปิดตัว ChatGPT 4 และ ChatGPT 4o แล้ว OpenAI ก็กำลังเตรียมการตอนนี้การมาถึงของอีกรุ่นหนึ่งที่มีความสามารถมากยิ่งขึ้น, เรียกภายใต้ชื่อGPT-ถัดไปหรือ GPT-5-
แม้จะเน้นเรื่องความปลอดภัย Safe Superintelligence มีเป้าหมายที่จะยังคงอยู่ในระดับแนวหน้าของการวิจัยในสาขา AI:
“เราคำนึงถึงความปลอดภัยและทักษะควบคู่กันไป โดยเป็นปัญหาทางเทคนิคที่ต้องแก้ไขผ่านนวัตกรรมทางวิศวกรรมและความก้าวหน้าทางวิทยาศาสตร์ เราวางแผนที่จะพัฒนาขีดความสามารถของเราให้เร็วที่สุดเท่าที่จะเป็นไปได้ ในขณะเดียวกันก็ทำให้มั่นใจว่าการรักษาความปลอดภัยของเราจะนำหน้าอยู่เสมอ"-
ความไม่ลงรอยกันที่ OpenAI
สำหรับบันทึกดังกล่าว Ilya Sutskever ได้มีส่วนร่วมในการก่อตั้ง OpenAI ร่วมกับ Sam Altman ในปี 2558 นักวิจัยชาวรัสเซียซึ่งเคยทำงานในทีมวิจัย Google Brain ในที่สุดออกจาก OpenAI เมื่อเดือนที่แล้ว- เขาได้ละทิ้งคณะกรรมการบริหารของกลุ่มไปแล้วเมื่อไม่กี่เดือนก่อนการขับไล่และการคืนสถานะของ Sam Altman ในตำแหน่ง CEO- Ilya Sutskever เป็นหนึ่งในผู้ที่โหวตให้ Altman ออกไป
นักวิทยาศาสตร์ชาวรัสเซียรายนี้เชื่อว่า OpenAI ภายใต้การนำของ CEO กำลังละเลยที่จะใช้มาตรการป้องกันที่จำเป็นในการแข่งขันด้านปัญญาประดิษฐ์ทั่วไป ที่ OpenAI นั้น Ilya Sutskever ได้สร้างทีมที่ทุ่มเทอย่างเต็มที่ในการทำนายความเสี่ยงที่เกิดจาก AI ทีมที่เรียกว่า Superalignment ถูกยุบไม่นานหลังจากที่นักวิทยาศาสตร์คอมพิวเตอร์จากไป สมาชิกถูกมอบหมายให้ไปดำรงตำแหน่งอื่น
🔴 เพื่อไม่พลาดข่าวสาร 01net ติดตามเราได้ที่Google ข่าวสารetวอทส์แอพพ์-
แหล่งที่มา : เอ็กซ์