L'生成式人工智慧今天被視為「黃金國」。但我們常常忘記,它需要大量的能量來運作。這是荷蘭經濟學家、10 月 10 日星期二在該雜誌上發表的一篇文章的作者 Alex de Vries 的觀點焦耳。研究人員,因致力於研究環境影響而聞名比特幣,強調'人工智慧落後聊天GPT, Dall-E 或 中途很快可能需要與整個國家一樣多的能源。
到目前為止,像 OpenAI 及其合作夥伴這樣的人工智慧開發者微軟、Google 或 Meta 很少透露其係統的實際能源消耗或環境影響。儘管如此,研究人員仍設法使用間接手段進行估算。 Alex de Vries,阿姆斯特丹自由大學博士生,公司創辦人數位經濟學家就其本身而言,是基於此類技術正常運作所需的圖形晶片數量。
使用 Nvidia 晶片進行的估計
因為在AI領域,大多數公司使用的圖形晶片是由Nvidia,美國半導體冠軍。具體來說,Alex de Vries 依靠Nvidia A100 和 H100 的銷售預測,這些圖形處理器對於訓練生成式 AI 至關重要。這些是95%的AI市場應該使用的。每個(其晶片)都非常耗能»,這位經濟學家向我們的同事解釋道紐約時報。
後者使用了一個投影據該公司稱,到 2027 年,Nvidia 可能會交付 150 萬台伺服器,每台伺服器都包含多個 A100 或 H100 晶片。然後他查看了這些伺服器(即 DGX A100 和 DGX H100)的功耗數據。他的結果是:這位經濟學家估計,到2027 年,在一年內,這些人工智慧伺服器的總能耗將達到85 到134 太瓦時。或者說是世界經濟的0.5%。
當然,這是一個估計:公司可能不會100%使用伺服器,這將有效減少電力使用,但冷卻伺服器所需的能源可能會推高這個數字。
在人工智慧領域,暫時不尋求節能
預計到 2022 年,資料中心將消耗全球電力的 1% 至 1.3%。因此,隨著人工智慧及其對環境的影響,今年這個數字可能會更高。這些資料中心使用化石能源或再生能源。因此,運行人工智慧所需的電力可能會增加世界各地的碳排放量,我們的同事寫道紐約時報。這種增長甚至可能是指數級的。因為在人工智慧的競賽中,尋求節能顯然不是首要任務。
然而,一些專家認為,在設計下一代人工智慧晶片和軟體時,應該考慮電力消耗。 “理想情況下,也許我們應該放慢一點速度,開始應用我們現有的解決方案»,佛羅倫薩大學軟體技術實驗室助理教授 Roberto Verdecchia 在接受我們的同事採訪時說道。 “我們不要僅僅為了提高準確性和速度而創建新模型。而且,讓我們深吸一口氣,看看我們消耗了多少環境資源»,他補充道。
亞歷克斯·德·弗里斯(Alex de Vries)在接受《金融時報》採訪時解釋道,這些數字值得深思。邊緣。隨著許多網路使用者嘗試使用這些新工具,許多公司已經開始了這場人工智慧競賽。我們現在知道這項技術消耗大量能源。在他的文章中,這位經濟學家還邀請監管機構就其係統對環境的影響向人工智慧開發人員施加更大的透明度。但我們也不應該“將人工智慧用於我們實際上不需要的東西»。