L'生成人工智能今天被视为“黄金国”。但我们常常忘记,它需要大量的能量来运作。这是荷兰经济学家、10 月 10 日星期二在该杂志上发表的一篇文章的作者 Alex de Vries 的观点焦耳。研究人员,因致力于研究环境影响而闻名比特币,强调'人工智能落后聊天GPT, Dall-E 或 中途很快可能需要与整个国家一样多的能源。
到目前为止,像 OpenAI 及其合作伙伴这样的人工智能开发者微软、Google 或 Meta 很少透露其系统的实际能源消耗或环境影响。尽管如此,研究人员仍设法使用间接手段进行估算。 Alex de Vries,阿姆斯特丹自由大学博士生,公司创始人数码经济学家就其本身而言,是基于此类技术正常运行所需的图形芯片数量。
使用 Nvidia 芯片进行的估计
因为在AI领域,大多数公司使用的图形芯片是由Nvidia,美国半导体冠军。具体来说,Alex de Vries 依靠Nvidia A100 和 H100 的销售预测,这些图形处理器对于训练生成式 AI 至关重要。这些是95%的AI市场应该使用的。每个(其芯片)都非常耗能»,这位经济学家向我们的同事解释道纽约时报。
后者使用了一个投影据该公司称,到 2027 年,Nvidia 可能会交付 150 万台服务器,每台服务器都包含多个 A100 或 H100 芯片。然后他查看了这些服务器(即 DGX A100 和 DGX H100)的功耗数据。他的结果是:这位经济学家估计,到 2027 年,在一年内,这些人工智能服务器的总能耗将达到 85 到 134 太瓦时。这相当于阿根廷、低地甚至瑞典的年消耗量,或者说是世界经济的 0.5%。我们的同事写道,当前全球电力消耗情况。
当然,这是一个估计:公司可能不会100%使用服务器,这将有效减少电力使用,但冷却服务器所需的能源可能会推高这个数字。
在人工智能领域,暂时不寻求节能
预计到 2022 年,数据中心将消耗全球电力的 1% 至 1.3%。因此,随着人工智能及其对环境的影响,今年这个数字可能会更高。这些数据中心使用化石能源或可再生能源。因此,运行人工智能所需的电力可能会增加世界各地的碳排放量,我们的同事写道纽约时报。这种增长甚至可能是指数级的。因为在人工智能的竞争中,寻求节能显然不是首要任务。
然而,一些专家认为,在设计下一代人工智能芯片和软件时,应该考虑电力消耗。 “理想情况下,也许我们应该放慢一点速度,开始应用我们现有的解决方案»,佛罗伦萨大学软件技术实验室助理教授 Roberto Verdecchia 在接受我们的同事采访时说道。 “我们不要仅仅为了提高准确性和速度而创建新模型。而且,让我们深吸一口气,看看我们消耗了多少环境资源»,他补充道。
亚历克斯·德·弗里斯 (Alex de Vries) 接受采访时解释道,这些数字值得深思。边缘。随着许多互联网用户尝试使用这些新工具,许多公司已经开始了这场人工智能竞赛。我们现在知道这项技术消耗大量能源。在他的文章中,这位经济学家还邀请监管机构就其系统对环境的影响向人工智能开发人员施加更大的透明度。但我们也不应该“将人工智能用于我们实际上不需要的东西»。