當前的人工智能算法在RAM方面極為要求:處理器和系統內存之間的數據傳輸對於此類應用程序至關重要,並且這些算法的性能取決於可用的帶寬。面對這個觀察Nvidia目前正在發展 - 與該行業的知名人士合作例如三星,SK Hynix和Micron-新的記憶標準專門為滿足這些需求而設計。受洗SOCAMM((芯片高級內存模塊上的系統),這種新的RAM體系結構應在下一代SO稱為“個人”超級計算機中使用。無論如何,這是Nvidia對這個市場的願景。
專用於AI計算的內存
SOCAMM內存的關鍵特徵之一是其較大的輸入/輸出接口。 SOCAMM與I/O的694個端口合作,其中經典的DDR5計算機內存限制為260行。這種增加使得可以減輕處理器和內存之間數據傳輸中的瓶頸,從而大大加速加速度d'ia。比通常的DRAM更密集,此內存還可以根據Technologie LPDDR5X。SOCAMM記憶也採用模塊化體系結構,允許用戶在必要時輕鬆替換和升級內存模塊。
NVIDIA計劃將這種類型的內存整合到其未來的個人緊湊型AI系統中,尤其是在其框架內專案數字預計其第一端產品將於明年5月出現。這個旨在發展真實的迷你超級估計數,,,,首先,對於開發商和企業而言,以後可能會將其提供給公眾。現在,NVIDIA無疑希望控制自己的記憶標準,毫無疑問,NVIDIA希望控制這一新興生態系統。因此,製造商的方法可以使其具有顯著的長期競爭優勢。
來源 : 湯姆的硬件