Microsoft และ OpenAI กำลังเตรียมที่จะเปิดม่าน GPT-4 ซึ่งเป็นการอัปเดตสำคัญที่ควรปฏิวัติวิธีการทำงานของ ChatGPT เรารวบรวมข้อมูลที่มีอยู่ในขณะนี้
ChatGPTซึ่งเป็นแชทบอทที่สำคัญของ OpenAI มีพื้นฐานมาจากโมเดลทางภาษาที่เรียกว่า GPT (Generative Pretrained Transformer) โมเดลนี้ใช้การเรียนรู้เชิงลึกเพื่อสร้างข้อความเพื่อตอบสนองต่อคำถามของผู้พูด ปัจจุบันหุ่นยนต์สนทนาใช้GPT-3.5ซึ่งเป็นเวอร์ชันกลางของโมเดลภาษา การทำซ้ำนี้ได้ประกาศในเดือนมีนาคม 2022 ไม่กี่เดือนก่อนที่จะมีการเปิดตัว ChatGPT
แน่นอนว่าการอัปเดต AI ครั้งใหญ่ครั้งต่อไป GPT-4 รอคอยอย่างใจจดใจจ่อจากผู้ใช้และผู้เชี่ยวชาญ และทึ่งกับประสิทธิภาพของ ChatGPT อยู่แล้ว ตามข่าวลือ วิวัฒนาการนี้จะมีพลังมากกว่าเวอร์ชันปัจจุบันอย่างมาก รอบคอบและวัดผลSam Altman ซีอีโอและผู้ก่อตั้ง OpenAIจนถึงปัจจุบันได้พยายามลดความคาดหวังของผู้ใช้อินเทอร์เน็ต ตามที่เขาพูด GPT-4 จะเป็นวิวัฒนาการที่ขี้อายของ GPT-3 เท่านั้น
เมื่อเดือนมกราคมที่ผ่านมา เขายังมั่นใจด้วยซ้ำว่า OpenAi ไม่ใช่ไม่ต้องรีบเร่งในการปรับใช้ GPT-4- อัลท์แมนอยากให้บริษัทของเขาใช้เวลามากที่สุดเท่าที่จะเป็นไปได้เพื่อทำให้ถูกต้อง เขาระบุว่า OpenAI กำลังจะเปิดตัว“เทคโนโลยีช้ากว่าที่ผู้คนต้องการมาก”-
อ่านเพิ่มเติม:Microsoft Bing ได้รับความนิยมมากขึ้นกว่าเดิมนับตั้งแต่การรวม ChatGPT
การนำเสนอในวันที่ 16 มีนาคม 2023
อย่างไรก็ตามในที่สุดปรากฎว่าการนำเสนอของ GPT-4 จะเป็นเช่นนี้คาดว่าในอีกไม่กี่วันข้างหน้า- สื่อมวลชนซักถามเฮย์สออนไลน์ในระหว่างงาน KI im Fokus Andreas Braun ผู้อำนวยการด้านเทคนิคของ Microsoft Germany ได้ประกาศให้ทุกคนประหลาดใจ:
“เราจะนำเสนอ GPT-4 ในสัปดาห์หน้า”-
กรอบงานไม่ได้พูดอะไรมากไปกว่านี้ แต่การเปิดเผยนี้ชี้ให้เห็นว่า Microsoft และ OpenAI วางแผนที่จะเปิดตัวโมเดลภาษาเวอร์ชันใหม่ทันทีที่วันพฤหัสบดีที่ 16 มีนาคม 2566- ในวันนี้ Microsoft กำลังจัดงานจริงๆการประชุมออนไลน์มุ่งเน้นไปที่ปัญญาประดิษฐ์“อนาคตของการทำงานร่วมกับ AI”- การนำเสนอนี้เน้นไปที่การใช้ AI ในโลกของมืออาชีพ จะเริ่มเวลา 17.00 น. ตามเวลาปารีส
ในขณะนี้ นี่เป็นการสื่อสารอย่างเป็นทางการเพียงอย่างเดียวเกี่ยวกับการประกาศ GPT-4 เป็นไปไม่ได้ที่ผู้บริหารชาวเยอรมันจะเปิดเผยข้อมูลโดยไม่ได้รับการอนุมัติจากลำดับชั้น
มีอะไรใหม่สำหรับ GPT-4
อย่างเป็นทางการของ Microsoft เสริมว่า GPT-4 จะจัดส่ง“โมเดลหลายรูปแบบที่จะนำเสนอความเป็นไปได้ที่แตกต่างไปจากเดิมอย่างสิ้นเชิง”โมเดลต่อเนื่องหลายรูปแบบสามารถรวมและประมวลผลแหล่งข้อมูลหลายแหล่ง เช่น ข้อความ เสียง หรือรูปภาพ เพื่อปรับแต่งผลลัพธ์
ท่ามกลางความเป็นไปได้ที่นำเสนอโดย GPT-4 นั้น Andreas Braun อ้างอิงวิดีโอ โดยสรุปแล้วปัญญาประดิษฐ์จะสามารถทำได้สร้างวิดีโอในลักษณะเดียวกับMake-A-Video AI ที่พัฒนาโดย Meta- การป้อนคำสองสามคำเพื่อให้อัลกอริทึมสร้างลำดับก็เพียงพอแล้ว วิวัฒนาการของ GPT นี้จะเป็นรากฐานปัญญาประดิษฐ์แห่งอนาคตของ OpenAI ที่ออกแบบมาเพื่อการผลิตวิดีโอ- Sam Altman กล่าวถึงเรื่องนี้อย่างไม่เต็มใจระหว่างการประชุมในเดือนมกราคม
ในปัจจุบัน GPT เวอร์ชันที่สี่ตามทฤษฎีจะสามารถเข้าใจคำขอเสียงและรับผลลัพธ์ในรูปแบบข้อความหรือรูปภาพได้ ในทำนองเดียวกัน AI สามารถสร้างข้อความ วิดีโอ หรือภาพตัดต่อโดยการ "ดู" ที่ภาพถ่าย ด้วยความหลากหลายรูปแบบ Microsoft มุ่งหวังที่จะ“ทำให้โมเดลสมบูรณ์ยิ่งขึ้น”โดยสรุป แอนเดรียส เบราน์
การประกาศดังกล่าวเกิดขึ้นไม่กี่วันหลังจากที่นักวิจัยของ Microsoft เปิดเผยคอสมอส-1ซึ่งเป็นโมเดลต่อเนื่องหลายรูปแบบที่ค่อนข้างครอบคลุมสำหรับการไขปริศนาภาพและวิเคราะห์เนื้อหาของภาพ ตามที่ผู้สร้าง Kosmos-1 กล่าวไว้ แนวทางแบบต่อเนื่องหลายรูปแบบเป็นหนึ่งในก้าวสำคัญในการสร้างปัญญาประดิษฐ์ทั่วไป ซึ่งสามารถทำงานได้เหมือนกับสมองของมนุษย์ นี่คือเป้าหมายระยะยาวที่ยิ่งใหญ่ของ OpenAI
โปรดทราบว่าไม่มีข้อบ่งชี้ว่าการนำเสนอจะมาพร้อมกับการอัปเดต ChatGPT และการปรับใช้ GPT-4 ไม่ว่าจะผ่านทางอินเทอร์เฟซสาธารณะหรือ API Microsoft และ OpenAI สามารถนำเสนอการเปลี่ยนแปลงที่สำคัญของโมเดลทางภาษาได้เป็นอย่างดี แม้ว่าจะยังไม่พร้อมอย่างสมบูรณ์ก็ตาม
🔴 เพื่อไม่พลาดข่าวสาร 01net ติดตามเราได้ที่Google ข่าวสารetวอทส์แอพพ์-
Opera One - เว็บเบราว์เซอร์ที่ขับเคลื่อนด้วย AI
โดย: โอเปร่า
แหล่งที่มา : เฮย์สออนไลน์