这可能看起来像魔法。在 ChatGPT 中输入请求,单击按钮,然后 — 很快! ——这是莎士比亚的五段分析村庄而且,作为一个额外的好处,它是用五音步抑扬格写成的。或者告诉 DALL-E 你梦中的嵌合动物,然后就会出现壁虎、狼和海星杂交的图像。如果你情绪低落,请打电话并得到一些安慰(SN:24 年 6 月 15 日,第 14 页10)。
不管看起来如何,这一切都不是凭空出现的。与聊天机器人或其他生成式人工智能系统的每次交互都会通过电线和电缆传输到数据中心——一个充满服务器堆栈的仓库,这些服务器堆栈通过数十亿(可能是数万亿)个参数传递这些提示,这些参数决定生成模型如何响应。
处理和回答提示会消耗电力,支持基础设施(如风扇和空调)也会消耗电力,这些基础设施可以冷却嗡嗡作响的服务器。除了巨额水电费之外,其结果还包括大量导致气候变暖的碳排放。发电和服务器冷却也会消耗大量的水,这些水用于化石燃料和核能生产以及蒸发或液体散热系统。
今年,随着生成式人工智能的流行度持续飙升,环保人士对这种资源匮乏的技术敲响了警钟。关于如何权衡生成人工智能带来的成本与无形收益(例如提高生产力和信息获取)的争论,在技术的目的和价值上存在意识形态分歧。
支持者认为,人工智能的最新革命是一种社会福利,甚至是必需品,它使我们比以往任何时候都更接近人工智能和超能力计算机系统,有些人认为这可能是一种与印刷机或互联网同等的范式转变技术。
阿贡国家实验室副实验室主任、芝加哥大学计算机科学家里克·史蒂文斯 (Rick Stevens) 表示,生成式人工智能“是任何你想做的事情的加速器”。在他看来,这项技术已经为企业和研究人员带来了巨大的生产力提升。
他指出,一项分析发现,当熟练工人使用人工智能工具时,绩效提高了 40%。他补充说,人工智能助手可以促进学校的词汇学习。瑞典乌普萨拉大学研究健康数据的跨学科研究员夏洛特·布莱斯 (Charlotte Blease) 表示,或者帮助医生诊断和治疗患者,并改善医疗信息的获取。麻省理工学院电气工程师和计算机科学家、非营利组织气候变化人工智能联合创始人 Priya Donti 表示,生成式人工智能甚至可以帮助城市规划者减少交通(并减少过程中的碳排放),或者帮助政府机构更好地预测天气。 。这样的例子还在继续。
现在,在这个关键时刻,来自经济学、计算机工程和可持续发展等不同领域的专家正在努力评估该技术的真正负担。
人工智能消耗多少能源?
研究和咨询机构 Digiconomist 的创始人兼博士 Alex de Vries 表示,ChatGPT 和其他生成工具非常耗电。阿姆斯特丹自由大学的候选人。 “这些模型越大——参数越多,数据越多——它们的性能就越好。但当然,规模越大也需要更多的计算资源来训练和运行它们,从而需要更多的电力。”研究加密货币和人工智能等技术对环境影响的 de Vries 说道。 “对于生成式人工智能来说,越大越好,但对环境却不利。”
训练生成式人工智能模型来分析莎士比亚或奇幻动物的形象是昂贵的。该过程涉及开发人工智能架构,收集和存储大量数字数据,然后让人工智能系统摄取这些数据并将其合并到其决策过程中,这些数据可以相当于互联网上公开提供的所有数据。打磨模型使其更加人性化需要额外的努力(SN:24 年 1 月 27 日,第 14 页18)。
总而言之,训练一个模型一年消耗的能源比 100 个美国家庭消耗的能源还要多。查询 ChatGPT 使用 about能量是标准在线搜索的 10 倍据国际能源署称。一些研究人员估计,使用 AI 聊天机器人撰写电子邮件所需的能量是 iPhone 16 充满电所需能量的七倍。
加州大学河滨分校的电气和计算机工程师 Shaolei Ren 表示,虽然培训显然是一个巨大的资源消耗,但当数百万人依赖聊天机器人来完成日常任务时,它就会增加。以至于人工智能领域很快就会每年消耗的能源与荷兰一样多, de Vries 预计 2023 年焦耳。鉴于生成式人工智能的快速增长,当前的轨迹已经超出了预测。
能源消耗者
回答单个 ChatGPT 查询比单个 Google 搜索需要更多电力。
目前,Google 搜索的每日总能源需求超过了 ChatGPT,因为它每天处理估计 85 亿次搜索,而 ChatGPT 每天处理 1300 万次查询。训练像 ChatGPT 这样的生成式 AI 模型会消耗大量能量,但随着时间的推移,个人使用量会不断增加。
那只是电。10 到 50 个 ChatGPT 查询使用半升水,根据 Ren 及其同事 2023 年的分析。他说,事实证明这也被大大低估了,低估了四倍。
一些工程师和人工智能专家对这些数字提出异议。 “我不明白这些[估计]背后的科学依据是什么,”谷歌工程师、加州大学伯克利分校名誉教授大卫帕特森说。 “我能想象获得[准确]答案的唯一方法是与谷歌这样的公司密切合作。”
现在看来,这是不可能的。 de Vries 和 Ren 表示,科技公司发布的有关其数据中心和人工智能模型的信息有限。因此,很难准确评估人工智能从摇篮到坟墓的成本或预测未来。在他们的估计中,两位研究人员都依赖于代理数据,例如科技公司 Nvidia 的人工智能服务器生产数据,或者将数据中心位置的知识与企业可持续发展报告中的信息相结合。
然而,现实世界的趋势确实表明了人工智能对能源的巨大需求。芝加哥大学计算机科学家 Andrew Chien 表示,在生成式人工智能蓬勃发展之前的几十年里,效率的提高已经弥补了数据中心和计算扩张带来的不断增长的能源需求。那已经改变了。他表示,到 2020 年底,数据中心扩张的速度开始超过效率提升的速度。谷歌和微软自报的能源使用量在 2019 年至 2023 年间都增加了一倍多。Chien 表示,ChatGPT 在 2022 年底的发布引发了一场生成式 AI 热潮,从而加剧了这一问题。 2022年之前,美国能源总需求已稳定约15年。现在正在上升。
“节省能源最简单的方法就是什么都不做,”帕特森说。但“进步涉及投资和成本。”他认为,生成式人工智能是一项非常年轻的技术,现在停止会阻碍其潜力。 “现在判断[生成式人工智能]仅能补偿投资还为时过早。”
更可持续的人工智能之路
决策不必是完全停止生成式人工智能开发还是允许其继续不受限制。相反,大多数专家指出,有一种更负责任的方式来处理该技术,降低风险并最大化回报。
柏林赫蒂学院计算机科学和公共政策专家林恩·卡克 (Lynn Kaack) 表示,要求公司披露在何处、如何使用生成式人工智能以及相应的能源消耗的政策将是朝着正确方向迈出的一步。规范该技术的使用和获取可能很困难,但卡克表示,这是最大限度减少环境和社会危害的关键。
例如,也许不是每个人都能够通过单击自由地生成语音克隆和逼真的图像。我们是否应该投入与运行飓风预测模型相同数量的资源来支持生成模因机?
对技术局限性进行更多研究也可以节省大量无用的消费。卡克说,人工智能“在某些类型的应用中非常强大,但在其他应用中完全没用”。
与此同时,数据中心和人工智能开发商可以采取措施减少碳排放和资源使用,Chien 说。一些简单的改变,例如仅在电网上有充足的无碳电力时(例如,在阳光明媚的日子,太阳能电池板产生过剩的能量)训练模型,或者在能源需求高峰时巧妙地降低系统性能,可能会产生显着的影响。用液浸冷却或其他允许水回收的闭环策略取代耗水量大的蒸发冷却也将最大限度地减少需求。
这些选择中的每一个都涉及权衡。任说,碳效率更高的系统通常会使用更多的水。不存在一刀切的解决方案。他说,探索和激励这些选择的替代方案——即使它们使公司开发更大的人工智能模型变得更加困难——正在冒着我们集体环境命运的部分风险。
Chien 说:“没有理由相信技术会拯救我们。”那么为什么不对冲我们的赌注呢?