Nvidia กำลังดำเนินการพัฒนามาตรฐานหน่วยความจำสำหรับซูเปอร์คอมพิวเตอร์ส่วนบุคคลโดยมีจุดประสงค์เพื่อให้ประสิทธิภาพที่ดีขึ้นและประสิทธิภาพการใช้พลังงานที่มากขึ้น
อัลกอริทึมปัญญาประดิษฐ์ในปัจจุบันมีความต้องการอย่างมากในแง่ของ RAM: การถ่ายโอนข้อมูลระหว่างโปรเซสเซอร์และหน่วยความจำระบบมีความสำคัญสำหรับแอปพลิเคชันประเภทนี้และประสิทธิภาพของอัลกอริทึมเหล่านี้ขึ้นอยู่กับแบนด์วิดท์ที่มีอยู่ ต้องเผชิญกับการสังเกตนี้Nvidiaกำลังพัฒนา - ในความร่วมมือกับชื่อใหญ่ในภาคเช่นSamsung, SK Hynix และ Micron - มาตรฐานใหม่ของหน่วยความจำออกแบบมาโดยเฉพาะเพื่อตอบสนองความต้องการเหล่านี้ ที่ให้บัพติศมาการเล่นตัวเอง-ระบบบนโมดูลหน่วยความจำขั้นสูงของชิป), สถาปัตยกรรม RAM ใหม่นี้ควรใช้ในรุ่นต่อไปของซูเปอร์คอมพิวเตอร์“ ส่วนตัว” ไม่ว่าในกรณีใดนี่คือวิสัยทัศน์ของ Nvidia สำหรับตลาดนี้
หน่วยความจำที่อุทิศให้กับการคำนวณ AI
หนึ่งในคุณสมบัติสำคัญของหน่วยความจำ socamm คืออินเทอร์เฟซอินพุต/เอาต์พุตขนาดใหญ่ Socamm ทำงานร่วมกับ I/O 694 พอร์ตโดยที่หน่วยความจำ DDR5 แบบคลาสสิกของคอมพิวเตอร์ถูก จำกัด ไว้ที่ 260 บรรทัด การเพิ่มขึ้นนี้ทำให้สามารถบรรเทาปัญหาคอขวดในการถ่ายโอนข้อมูลระหว่างโปรเซสเซอร์และหน่วยความจำได้อย่างมากcalculs d'ia- หนาแน่นกว่า DRAM ปกติหน่วยความจำนี้ยังช่วยลดการใช้พลังงานตามTechnologie LPDDR5X-หน่วยความจำ Socamm ยังใช้สถาปัตยกรรมแบบแยกส่วนช่วยให้ผู้ใช้สามารถเปลี่ยนและอัพเกรดโมดูลหน่วยความจำได้อย่างง่ายดายหากจำเป็น
อ่านเพิ่มเติม:Gogo และ Photonic Silicon Stack: สูตรของ Nvidia สำหรับชิป IA ในอนาคต
Nvidia วางแผนที่จะรวมหน่วยความจำประเภทนี้เข้ากับระบบ AI ขนาดกะทัดรัดส่วนบุคคลในอนาคตโดยเฉพาะอย่างยิ่งในกรอบของมันโครงการตัวเลขซึ่งคาดว่าจะมีผลิตภัณฑ์ระดับปลายแรกปรากฏในตลาดในเดือนพฤษภาคมปีหน้าอันนี้มีวัตถุประสงค์เพื่อพัฒนาจริงmini supercalculateurs d'ia-สำหรับนักพัฒนาและธุรกิจในตอนแรกก่อนที่จะเสนอให้พวกเขาในภายหลังแก่ประชาชนทั่วไป โดยการพัฒนามาตรฐานหน่วยความจำของตัวเองที่อุทิศตนเพื่อปัญญาประดิษฐ์ Nvidia หวังว่าจะควบคุมระบบนิเวศที่เกิดขึ้นใหม่นี้ได้อย่างไม่ต้องสงสัย วิธีการของผู้ผลิตอาจให้ความได้เปรียบในการแข่งขันระยะยาวอย่างมีนัยสำคัญ
🔴อย่าพลาดข่าว 01NET ใด ๆ ติดตามเราที่Google NewsETWhatsapp-
แหล่งที่มา : ฮาร์ดแวร์ของทอม