這可能看起來像魔法。在 ChatGPT 中輸入請求,單擊按鈕,然後 — 很快! ——這是莎士比亞的五段分析村莊而且,作為一個額外的好處,它是用五音步抑揚格寫成的。或者告訴 DALL-E 你夢中的嵌合動物,然後就會出現壁虎、狼和海星雜交的圖像。如果你情緒低落,請打電話並得到一些安慰(SN:24 年 6 月 15 日,第 14 頁10)。
不管看起來如何,這一切都不是憑空出現的。與聊天機器人或其他生成式人工智能係統的每次交互都會通過電線和電纜傳輸到數據中心——一個充滿服務器堆棧的倉庫,這些服務器堆棧通過數十億(可能是數万億)個參數傳遞這些提示,這些參數決定生成模型如何響應。
處理和回答提示會消耗電力,支持基礎設施(如風扇和空調)也會消耗電力,這些基礎設施可以冷卻嗡嗡作響的服務器。除了巨額水電費之外,其結果還包括大量導致氣候變暖的碳排放。發電和服務器冷卻也會消耗大量的水,這些水用於化石燃料和核能生產以及蒸發或液體散熱系統。
今年,隨著生成式人工智能的流行度持續飆升,環保人士對這種資源匱乏的技術敲響了警鐘。關於如何權衡成本與生成式人工智能帶來的不太明顯的好處(例如提高生產力和信息獲取)的爭論充斥著對技術目的和價值的意識形態分歧。
支持者認為,人工智能的最新革命是一種社會福利,甚至是必需品,它使我們比以往任何時候都更接近人工智能和超能力計算機系統,有些人認為這可能是一種與印刷機或互聯網同等的範式轉變技術。
阿貢國家實驗室副實驗室主任、芝加哥大學計算機科學家里克·史蒂文斯 (Rick Stevens) 表示,生成式人工智能“是任何你想做的事情的加速器”。在他看來,這項技術已經為企業和研究人員帶來了巨大的生產力提升。
他指出,一項分析發現,當熟練工人使用人工智能工具時,績效提高了 40%。他補充道,人工智能助手可以促進學校的詞彙學習。瑞典烏普薩拉大學研究健康數據的跨學科研究員夏洛特·布萊斯 (Charlotte Blease) 表示,或者幫助醫生診斷和治療患者,並改善醫療信息的獲取。麻省理工學院電氣工程師和計算機科學家、非營利組織氣候變化人工智能聯合創始人 Priya Donti 表示,生成式人工智能甚至可以幫助城市規劃者減少交通(並減少過程中的碳排放),或者幫助政府機構更好地預測天氣。這樣的例子還在繼續。
現在,在這個關鍵時刻,來自經濟學、計算機工程和可持續發展等不同領域的專家正在努力評估該技術的真正負擔。
人工智能消耗多少能源?
研究和諮詢機構 Digiconomist 的創始人兼博士 Alex de Vries 表示,ChatGPT 和其他生成工具非常耗電。阿姆斯特丹自由大學的候選人。 “這些模型越大,參數越多,數據越多,它們的性能就越好。但當然,越大也需要更多的計算資源來訓練和運行它們,需要更多的電力,”研究加密貨幣和人工智能等技術對環境影響的德弗里斯說。 “對於生成式人工智能來說,越大越好,但對環境卻不利。”
訓練生成式人工智能模型來分析莎士比亞或奇幻動物的形像是昂貴的。該過程涉及開發人工智能架構,收集和存儲大量數字數據,然後讓人工智能係統攝取這些數據並將其合併到其決策過程中,這些數據可以相當於互聯網上公開提供的所有數據。打磨模型使其更加人性化需要額外的努力(SN:24 年 1 月 27 日,第 1 頁18)。
總而言之,訓練一個模型一年消耗的能源比 100 個美國家庭消耗的能源還要多。查詢 ChatGPT 使用 about能量是標准在線搜索的 10 倍據國際能源署稱。一些研究人員估計,使用 AI 聊天機器人撰寫電子郵件所需的能量是 iPhone 16 充滿電所需能量的七倍。
加州大學河濱分校的電氣和計算機工程師 Shaolei Ren 表示,雖然培訓顯然是一個巨大的資源消耗,但當數百萬人依賴聊天機器人來完成日常任務時,它就會增加。如此之多以至於人工智能領域很快就會每年消耗的能源與荷蘭一樣多, de Vries 預計 2023 年焦耳。鑑於生成式人工智能的快速增長,當前的軌跡已經超出了預測。
能源消耗者
回答單個 ChatGPT 查詢比單個 Google 搜索需要更多電力。
目前,Google 搜索的每日總能源需求超過了 ChatGPT,因為它每天處理估計 85 億次搜索,而 ChatGPT 每天處理 1300 萬次查詢。訓練像 ChatGPT 這樣的生成式 AI 模型會消耗大量能量,但隨著時間的推移,個人使用量會不斷增加。
那隻是電。10 到 50 個 ChatGPT 查詢使用半升水,根據 Ren 及其同事 2023 年的分析。他說,事實證明這也被大大低估了,低估了四倍。
一些工程師和人工智能專家對這些數字提出異議。 “我不明白這些[估計]背後的科學依據是什麼,”谷歌工程師、加州大學伯克利分校名譽教授大衛帕特森說。 “我能想像獲得[準確]答案的唯一方法是與穀歌這樣的公司密切合作。”
現在看來,這是不可能的。 de Vries 和 Ren 表示,科技公司發布的有關其數據中心和人工智能模型的信息有限。因此,很難準確評估人工智能從搖籃到墳墓的成本或預測未來。在他們的估計中,兩位研究人員都依賴於代理數據,例如科技公司 Nvidia 的人工智能服務器生產數據,或者將數據中心位置的知識與企業可持續發展報告中的信息相結合。
然而,現實世界的趨勢確實表明了人工智能對能源的巨大需求。芝加哥大學計算機科學家 Andrew Chien 表示,在生成式人工智能蓬勃發展之前的幾十年裡,效率的提高已經彌補了數據中心和計算擴張帶來的不斷增長的能源需求。那已經改變了。他表示,到 2020 年底,數據中心擴張的速度開始超過效率提升的速度。谷歌和微軟自報的能源使用量在 2019 年至 2023 年間都增加了一倍多。 Chien 表示,ChatGPT 在 2022 年底的發布引發了一場生成式 AI 熱潮,從而加劇了這一問題。 2022年之前,美國能源總需求已穩定約15年。現在正在上升。
“節省能源最簡單的方法就是什麼都不做,”帕特森說。但“進步涉及投資和成本。”他認為,生成式人工智能是一項非常年輕的技術,現在停止會阻礙其潛力。 “現在判斷[生成式人工智能]僅能補償投資還為時過早。”
更可持續的人工智能之路
決策不必是完全停止生成式人工智能開發還是允許其繼續不受限制。相反,大多數專家指出,有一種更負責任的方式來處理該技術,降低風險並最大化回報。
柏林赫蒂學院計算機科學和公共政策專家林恩·卡克 (Lynn Kaack) 表示,要求公司披露在何處、如何使用生成式人工智能以及相應的能源消耗的政策將是朝著正確方向邁出的一步。規範該技術的使用和獲取可能很困難,但卡克表示,這是最大限度減少環境和社會危害的關鍵。
例如,也許不是每個人都能夠通過單擊自由地生成語音克隆和逼真的圖像。我們是否應該投入與運行颶風預測模型相同數量的資源來支持生成模因機?
對技術局限性進行更多研究也可以節省大量無用的消費。卡克說,人工智能“在某些類型的應用中非常強大,但在其他應用中卻毫無用處”。
與此同時,數據中心和人工智能開發商可以採取措施減少碳排放和資源使用,Chien 說。一些簡單的改變,例如僅在電網上有充足的無碳電力時(例如,在陽光明媚的日子,太陽能電池板產生過剩的能量)訓練模型,或者在能源需求高峰時巧妙地降低系統性能,可能會產生顯著的影響。用液浸冷卻或其他允許水回收的閉環策略取代耗水量大的蒸發冷卻也將最大限度地減少需求。
這些選擇中的每一個都涉及權衡。任說,碳效率更高的系統通常會使用更多的水。不存在一刀切的解決方案。他說,探索和激勵這些選擇的替代方案——即使它們使公司開發更大的人工智能模型變得更加困難——正在冒著我們集體環境命運的部分風險。
Chien 說:“沒有理由相信技術會拯救我們。”那麼為什麼不對沖我們的賭注呢?









