據微軟高層稱,該公司花費了「數億美元」來設計超級計算機,為 ChatGPT 等 OpenAI 專案提供支援。在機器的核心,最昂貴的組件是 Nvidia 最強大的專業 GPU。
除非你被鎖在山洞裡,否則你無法逃脫有關 OpenAI 及其寶石 ChatGPT 的新聞海嘯。人工智慧能夠回答問題,寫作業(或課程),模擬文學流派……也做一些恐怖。但事實是,ChatGPT 和 OpenAI 的工具是一場資訊地震,向大眾揭示了人工智慧的強大未來。然而,人工智慧並不是工程師和研究人員的帽子。模型當然會思考,但最重要的是,它們必須經過訓練。這是一項消耗大量資源的操作:時間、精力和尖端設備。因為為了訓練和營運 ChatGPT,OpenAI 及其資助者微軟在費用上並不吝惜。根據副總裁 Scott Guthrie 的說法微軟負責雲端和人工智慧,該公司在該項目上花費了數億美元。特別是在負責運算的晶片中。
OpenAI 技術的核心是微軟的 Azure 雲端和數千台名為「ND H100 v5」的機器。這個技術名稱下隱藏著一個強大的硬體模組。配備 Intel Xeon Scalable 4 處理器的伺服器e一代(稱為“藍寶石急流),管理負責大部分運算的「馬」(即 Nvidia GPU)的熱情的處理器。不是你的舊款 GeForce,甚至不是超級 RTX 4090。不,這些是名為 H100 的專業晶片,專門針對人工智慧相關任務進行了最佳化。如果微軟沒有透露英特爾 CPU 的數量或性質(「s」表示至少有兩個),我們知道每台伺服器整合不少於 8 個 Nvidia H100(每張卡 30,000 美元,費用一定很高! )。也就是說,6,400 億個電晶體(每個GPU 800 億個)透過NVSwitch 和NVlink 技術互連,與2020 年的A100 GPU 相比,計算時間最多可劃分九倍。的計算。最重要的是,為英偉達帶來盡可能多的資金,因為英偉達在這些超級機器的價值中佔據了最大份額。
因為這些伺服器的強大功能對Nvidia來說是雙重優勢。除了在 GPU 的原始能力方面取得成功外,它還以每個伺服器機架 8 個一組的形式出售! – 帶有綠色標誌的公司也被選中使用其 Quantum-2 InfiniBand 晶片將伺服器連接在一起。因為,在密集運算中,僅靠原始能力是不夠的:您必須知道如何很好地分配任務。
Nvidia 主導運算…和網絡
如果AMD以擁有比Nvidia更強大的GPU而自豪——顯然,它的說法恰恰相反——這種力量只是眾多其他數據中的一個。除非您家裡有一台超級電腦來進行專業的性能測量——但我們沒有! – 你必須全面審視這些晶片,才能看到其運算解決方案的致命武器:網路。網路和記憶體是提高超級電腦運算效能的真正瓶頸。
另請閱讀:前沿超級電腦:AMD 是世界上最強大電腦的核心(2022 年 5 月)
英偉達表現得很好。如果該公司堅持不懈地繼續開發更多、更有效率的晶片——到2023年,它在GPU領域仍然具有明顯的優勢賭博和專業人士—2020 年,該公司收購了一家不為公眾所知的公司:Mellanox。 Nvidia 吸收了一位網路專家,並將其產品「嫁接到」其專業 GPU 上。既賣超級網路晶片,也賣開關(分發資訊)及其軟體,Nvidia 優化了 GPU 和網路設備,以便在它們協同工作時發揮最佳性能。
因此,Nvidia 的 Quantum-2 InfiniBand 解決方案能夠在每台伺服器上傳輸 400 Gbit 的資料 - 與您盒子中的 1 Gbit 路由器不同!最重要的是,網路設備和軟體能夠在分佈在數千台伺服器上的數千個 GPU 上智慧地分配運算。不僅 ChatGPT 的服務現在還必須面對 Bing 的服務,現在必須面對數百萬個請求所需的「智慧」。因此,下次使用 ChatGPT 時,您可以想像在不到一秒的時間內釋放計算和交付結果所需的大量運算能力和具有競爭力的傳輸速度。這一切都是為了寫一首NTM風格的歌頌白蟻!
來源 : 彭博社