เมื่อไม่กี่เดือนที่ผ่านมา AI ก็มีความหมายเหมือนกันกับอนาคต วันนี้มันได้กลายเป็นส่วนหนึ่งของชีวิตประจำวันของเรา ในยุคของ “PC AI” ปัญญาประดิษฐ์ถูกรวมเข้ากับพีซีของเราอย่างสมบูรณ์แบบ และช่วยให้เราทำงานได้อย่างมีประสิทธิภาพมากยิ่งขึ้น เพื่อดำเนินโครงการที่น่าทึ่งซึ่งมีความทะเยอทะยานมากขึ้นกว่าเดิม นี่คือเหตุผลที่ NVIDIA นำเสนอเทคโนโลยีใหม่ในขณะนี้NVIDIA RTX และ GeForce RTXเพื่อเสนอเครื่องมือที่ดีที่สุดให้กับคุณ
ด้วยเทคโนโลยีใหม่เหล่านี้ ทำให้เกิดวิธีใหม่ในการประเมินประสิทธิภาพของงานที่เร่งด้วย AI และภาษาใหม่ที่อาจถอดรหัสได้ยากเมื่อต้องเลือกระหว่างเดสก์ท็อปและแล็ปท็อป ลืมเฟรมต่อวินาที (FPS) ที่นักเล่นเกมและเกมพีซีรู้จักกันดีไปได้เลย ตอนนี้ด้วย AI เรากำลังพูดถึง TOPS และ Tokens ต่อไปนี้เป็นภาพรวมโดยย่อ
ค้นพบกลุ่มผลิตภัณฑ์ geforce rtx GPU
จากพีซีไปจนถึง TOPS ของเทคโนโลยี
การวัดแรกที่เราสามารถทำได้คือ TOPS หรือ "ล้านล้านการดำเนินงานต่อวินาที" ล้านล้านเป็นคำที่สำคัญ
เนื่องจากเป็นการเน้นย้ำลำดับความสำคัญที่ค่อนข้างใหญ่ซึ่ง AI จะสามารถประมวลผลได้ TOPS เปรียบเสมือนการวัดประสิทธิภาพดิบ คล้ายกับกำลังของเครื่องยนต์
หากเรายกตัวอย่างกลุ่มผลิตภัณฑ์ Copilot+ ของพีซีที่ Microsoft ประกาศเมื่อเร็วๆ นี้ ช่วงนี้รวมถึงหน่วยประมวลผลประสาท (NPU) ที่สามารถทำงานได้มากกว่า 40 ล้านล้านรายการต่อวินาที นั่นคือรันไทม์ที่ 40 TOPS ซึ่งเพียงพอสำหรับงานเล็กๆ น้อยๆ ที่ได้รับความช่วยเหลือจาก AI เช่น การถามแชทบอทในพื้นที่ว่าบันทึกย่อของคุณเมื่อวันก่อนอยู่ที่ไหน
อย่างไรก็ตาม งาน Generative AI จำนวนมากมีความต้องการมากขึ้นและต้องการทรัพยากรมากขึ้น นี่คือจุดที่ NVIDIA RTX และ GeForce RTX GPU เข้ามามีบทบาท อย่างหลังจึงสามารถนำเสนอประสิทธิภาพที่เหนือชั้นสำหรับงานสร้างสรรค์ทั้งหมด หากเราใช้ GeForce RTX 4090 GPU รุ่นหลังสามารถให้พลังงานได้มากกว่า 1,300 TOPS ด้วยเหตุนี้ คุณจะสามารถ (และไม่มีปัญหา) ในการจัดการการสร้างเนื้อหาดิจิทัลที่ได้รับความช่วยเหลือจาก AI (DCC), ความละเอียดขั้นสูงของ AI ในเกมพีซี, การสร้างภาพจากข้อความหรือวิดีโอ, การสอบถามโมเดลภาษาท้องถิ่นขนาดใหญ่ (LLM) และอื่นๆ อีกมากมาย .
โทเค็นสำหรับเกม
TOPS เป็นส่วนหนึ่งของมาตรการใหม่ แต่ไม่ใช่มาตรการเดียวเท่านั้น ประสิทธิภาพของ LLM วัดจากจำนวนโทเค็นที่สร้างโดยโมเดล พูดง่ายๆ ก็คือ โทเค็นคือผลลัพธ์ของ LLM ตัวอย่างเช่น โทเค็นอาจเป็นคำในประโยค หรือแม้แต่เครื่องหมายวรรคตอนหรือช่องว่างก็ได้ ประสิทธิภาพของงานที่เร่งด้วย AI สามารถวัดได้ใน "โทเค็นต่อวินาที"
LLM จะเป็นหัวใจสำคัญของระบบ AI สมัยใหม่มากมาย ดังนั้นความสามารถในการประมวลผลอินพุตหลายรายการ (เช่น จากแอปพลิเคชันเดียวหรือจากหลายแอปพลิเคชัน) จึงมีความสำคัญ ขนาดแบทช์ หรือจำนวนอินพุตที่ประมวลผลพร้อมกันในการอนุมานครั้งเดียว จึงเป็นปัจจัยสำคัญ แม้ว่าแบตช์ขนาดใหญ่จะปรับปรุงประสิทธิภาพสำหรับอินพุตพร้อมกัน แต่ยังต้องการหน่วยความจำเพิ่มขึ้น โดยเฉพาะอย่างยิ่งเมื่อรวมกับเทมเพลตขนาดใหญ่
แน่นอนว่า NVIDIA รับรองได้ว่าจีพียู RTXเหมาะอย่างยิ่งสำหรับ LLM เนื่องจากมีหน่วยความจำเข้าถึงโดยสุ่มวิดีโอ (VRAM), แกน Tensor และซอฟต์แวร์ TensorRT-LLM จำนวนมาก ดังนั้น GeForce RTX GPU จึงมี VRAM สูงสุด 24 GB ที่ความเร็วสูง และ NVIDIA RTX GPU สูงสุด 48 GB ซึ่งทำให้สามารถจัดการโมเดลที่ใหญ่ขึ้นและเพิ่มขนาดแบตช์ได้
เพื่อก้าวไปอีกขั้น NVIDIA รับประกันว่า GPU RTX ยังใช้ประโยชน์จาก Tensor Cores กล่าวคือ ตัวเร่งความเร็ว AI เฉพาะที่เร่งการดำเนินการประมวลผลแบบเข้มข้นที่จำเป็นสำหรับการเรียนรู้เชิงลึกและการสร้างโมเดล AI อย่างมีนัยสำคัญ ดังนั้นเมื่อแอปพลิเคชันใช้ NVIDIA TensorRT SDK มันจะปลดล็อก AI ที่สร้างได้ดียิ่งขึ้นบนพีซี Windows และเวิร์กสเตชันที่มี RTX มากกว่า 100 ล้านเครื่อง
เปลี่ยนจากข้อความเป็นรูปภาพด้วยความเร็วแสง
ด้วยเทคโนโลยีใหม่เหล่านี้ กระบวนการ Generative AI จึงถูกเร่งขึ้นอย่างมาก ดังนั้นการวัดความเร็วในการสร้างภาพจึงเป็นอีกวิธีหนึ่งในการประเมินประสิทธิภาพ และเทคโนโลยี NVIDIA ก็จัดการอีกครั้งเพื่อให้ผลลัพธ์ที่น่าทึ่งแก่เรา
วิธีการคำนวณที่ง่ายที่สุดวิธีหนึ่งคือการใช้ Stable Diffusion ซึ่งเป็นโมเดล AI ที่ใช้รูปภาพยอดนิยม ซึ่งช่วยให้ผู้ใช้สามารถแปลงคำอธิบายที่เป็นข้อความให้เป็นการแสดงภาพที่ซับซ้อนได้อย่างง่ายดาย นี่คือหลักการของ Midjourney ซึ่งคุณจะต้องป้อนคำสั่งข้อความ จากนั้นจะสร้างรูปภาพ (หรือวิดีโอ) จากนั้น
ด้วย Stable Diffusion ผู้ใช้สามารถสร้างและปรับแต่งภาพจากข้อความแจ้งได้อย่างรวดเร็วเพื่อให้ได้ผลลัพธ์ที่ต้องการ ด้วย RTX GPU ของ NVIDIA ผลลัพธ์เหล่านี้สามารถสร้างได้เร็วกว่าการประมวลผลโมเดล AI บน CPU หรือ NPU
แน่นอนว่า หากคุณใช้ส่วนขยาย TensorRT ประสิทธิภาพก็จะยิ่งสูงขึ้นไปอีก ผู้ใช้ RTX สร้างอิมเมจจากการแจ้งที่เร็วขึ้นสูงสุดสองเท่าด้วยจุดตรวจสอบฐาน SDXL ช่วยลดความซับซ้อนของเวิร์กโฟลว์ Stable Diffusion ลงอย่างมาก
Stable Diffusion 3 คือโมเดลข้อความรูปภาพใหม่ที่ทุกคนตั้งตารอจาก Stability AI อย่างหลังยังใช้ TensorRT ซึ่งเพิ่มประสิทธิภาพขึ้น 50% การเร่งความเร็วอาจสูงถึง 70% ด้วยเครื่องมือเพิ่มประสิทธิภาพโมเดล TensorRT ใหม่ เครื่องมือเพิ่มประสิทธิภาพนี้ยังช่วยลดการใช้หน่วยความจำลง 50%
ค้นพบกลุ่มผลิตภัณฑ์ geforce rtx GPU
🔴 เพื่อไม่ให้พลาดข่าวสารจาก 01net ติดตามเราได้ที่Google ข่าวสารetวอทส์แอพพ์-
ด้วยความร่วมมือกับ NVIDIA