
前段时间看到一个数字,把我吓了一跳:训练 GPT-3 这个模型,总共消耗了 1,287 兆瓦时的电。这是什么概念?大概相当于 120 个美国家庭一年的用电量。
我当时就想,这也太夸张了吧。但仔细想想,这几年 AI 发展得这么快,ChatGPT、Midjourney 这些工具我们每天都在用,背后得有多少服务器在运转?这笔环保账到底该怎么算,我觉得值得好好聊聊。
数据中心里发生了什么
如果你以为 AI 模型就是跑在某台电脑上,那可就想简单了。
训练一个大型 AI 模型,需要的是专门的数据中心。这些数据中心里塞满了服务器,每台服务器上装着专门用来跑 AI 的芯片------比如英伟达的 H100 GPU。这些芯片的功耗有多大?单个 H100 的额定功率是 700 瓦,但如果算上整个服务器和数据中心的配套设施,每块 GPU 实际消耗的功率能达到 1,500 瓦左右。
更要命的是,AI 训练对算力的需求特别集中。根据国际能源署(IEA)的数据,一个 AI 训练集群消耗的能量,是普通计算工作负载的 7 到 8 倍。这就好比你家里开着一台普通电脑,突然换成了 8 台同时满负荷运转,电表转速能让你怀疑人生。

而且这些服务器不能过热,数据中心得配备大量的冷却系统。在一个现代化的数据中心里,服务器本身大概占 60% 的耗电量,剩下的很大一部分就是冷却设备在用。那些效率低一点的老数据中心,冷却系统甚至能占到总耗电量的 30% 以上。
从训练到使用,能耗账单还在继续

训练只是个开始。
GPT-3 的训练过程消耗了 1,287 兆瓦时的电,同时排放了大约 552 吨二氧化碳。这听起来已经很多了,但如果你以为模型训练完就不耗电了,那就错了。
每次你打开 ChatGPT 问个问题,背后都有服务器在运转。Epoch AI 的研究人员算过一笔账:一次典型的 GPT-4o 查询,大概消耗 0.3 瓦时的电。这个数字单看不算大,大概就是一个 LED 灯泡亮几分钟的耗电量。但问题是,ChatGPT 现在有 3 亿用户,每天要处理 10 亿条消息。这么一算,光是 ChatGPT 的推理(也就是回答用户问题)这一项,就需要大约 12.5 兆瓦的持续功率。
这个数字还在快速增长。2024 年,全球数据中心的总耗电量大约是 415 太瓦时(TWh),占全球总发电量的 1.5%。IEA 预测,到 2030 年,这个数字会翻倍,达到 945 太瓦时,占比接近 3%。这里面很大一部分增长,就是 AI 推动的。
更让人头疼的是,AI 训练的能耗波动特别大。训练过程中,算力需求会忽高忽低,电网得想办法应对这些波动。通常的做法是用柴油发电机来调峰,这又带来了额外的碳排放。
不只是电,还有水

说到这里,我发现大家往往只关注电,但其实还有一个容易被忽略的问题:水。
数据中心的冷却系统需要大量的水。有研究估算,数据中心每消耗 1 千瓦时的电,就需要 2 升水来冷却设备。这些水从哪里来?通常是当地的市政供水系统。
这就意味着,一个大型数据中心的运转,会给当地的水资源带来不小的压力。而且这些水用完之后,温度会升高,如果直接排放到河流或湖泊里,可能会影响当地的生态系统。
MIT 的研究人员在一篇论文里提到,AI 的环境影响不只是插上电源那一刻产生的,还包括整个系统层面的连锁反应。数据中心建在哪里,用什么样的能源,怎么处理废热和废水,这些都是环保账单的一部分。
这笔账怎么算才合理

看到这里你可能会想,那不同的模型是不是耗电量差别很大?
确实是这样。2022 年,有研究团队专门测算了 BLOOM 这个 1,760 亿参数的模型。他们发现,训练 BLOOM 大概消耗了 433 兆瓦时的电(这已经比 GPT-3 少很多了),产生了大约 25 吨的碳排放。但这里有个细节:BLOOM 的训练是在法国进行的,法国的电力主要来自核能,碳排放强度比大多数国家低 5 到 10 倍。如果换个地方训练,碳排放可能会高出好几倍。
这就引出了一个很重要的问题:能不能让 AI 训练更高效一点?
答案是肯定的,而且业界已经在做了。比如:
算法层面,研究人员在想办法让模型变得更"聪明"。DeepSeek-V3 这个模型,虽然总共有 6,710 亿个参数,但实际运行的时候只激活其中的 370 亿个,这种"混合专家"(MoE)架构能大幅降低能耗。OpenAI 的 GPT-4o mini 也是类似的思路,性能不错但耗电少得多。
硬件层面,芯片厂商在不断提升能效。从英伟达的 A100 到 H100,再到最新的 Blackwell 系列,每一代芯片的能效都在提升。数据中心的设计也在优化,那些超大规模的数据中心,能效比(PUE)已经能做到 1.15 左右,意思是每用 1 度电跑计算,只需要额外用 0.15 度电来维持数据中心运转。
选址策略,有些公司开始把数据中心建在电力更清洁、气候更凉爽的地方。北欧就很受欢迎,那边有大量的水电和风电,而且天气冷,冷却成本低。
但说实话,这些努力能不能跟上 AI 发展的速度,现在还不好说。模型越来越大,应用越来越多,效率提升能不能抵消规模扩张带来的能耗增长,这是个问号。
我们该如何看待这件事
写到这里,我自己也在想,这个问题到底该怎么看。
从个人使用的角度来说,每次用 ChatGPT 问个问题,0.3 瓦时的耗电量确实不算多。一个美国家庭平均每天用电 28,000 瓦时,就算你是重度用户,一天问 100 个问题,也就 30 瓦时,占比微乎其微。
把视角拉到整个行业,情况就不一样了。2024 年,AI 数据中心的耗电量已经相当于沙特阿拉伯一个国家的用电量。到 2030 年,这个数字可能会超过法国。而且这还只是保守估计,如果 AI 应用的增长速度超出预期,能耗增长可能会更快。
最大的问题在于,这些数字太不透明了。OpenAI 没有公开 GPT-4 的训练能耗,谷歌、Meta 这些公司也是。我们只能通过一些研究机构的估算来了解大概情况。但如果连基本的数据都没有,怎么去讨论责任,怎么去推动改进?
Epoch AI 的研究人员在报告里提到,公众对 AI 能耗的印象其实有很多误解,有些人觉得用一次 ChatGPT 就像开一次车那么耗能,这是夸大了。但反过来说,如果 AI 公司能更透明地公布数据,这些误解也就不会存在了。
另一个让我有点担心的是,AI 的发展速度实在太快了。数据中心从规划到建成,通常需要两三年,但 AI 模型几个月就能迭代一次。能源系统跟不上这个节奏,很多地方的电网已经开始感受到压力了。美国有些地区,电力公司甚至开始限制新建数据中心,因为电力供应跟不上了。
但话说回来,我也不觉得应该因为环保问题就停止 AI 的发展。AI 确实在很多领域带来了价值,从医疗诊断到科学研究,从提高工作效率到辅助创作。关键是怎么在发展和环保之间找到平衡。
MIT 的研究团队提出了一个观点,我觉得挺有道理:我们需要更全面地评估 AI 的环境成本和社会价值。不是说 AI 一定不该用,而是要想清楚,哪些应用真的值得投入这么多资源,哪些可能只是锦上添花甚至是浪费。
比如说,用 AI 来加速新材料研发、优化能源系统、预测气候变化,这些应用本身可能就能带来更大的环保收益。但如果只是为了生成一张无聊的图片,或者回答一个简单到 Google 搜索就能解决的问题,那就值得商榷了。
最后我想说的是,这个问题不只是 AI 公司的责任,也不只是用户的责任,而是整个社会需要一起面对的。AI 公司应该更透明地披露能耗数据,投资更高效的技术和更清洁的能源。政策制定者需要建立合理的监管框架,鼓励负责任的发展。而作为用户,我们也可以更有意识地使用这些工具,不必要的时候就少用一点。
AI 的环保账,现在才刚刚开始算。这笔账会怎么发展,很大程度上取决于我们现在做出的选择。