为何ChatGPT日耗电超50万度?

看新闻说,ChatGPT每天的耗电量是50万度,国内每个家庭日均的耗电量不到10度,ChatGPT耗电相当于国内5万个家庭用量。

网上流传,英伟达创始人黄仁勋说:"AI的尽头是光伏和储能",大佬的眼光就是毒辣,点出了AI发展的根基。

我觉得这样的耗电算是稀松平常,训练AI模型需要算力,用户访问也需要算力,而算力要用到GPU显卡,就像挖矿一样,非常的耗电。以Chat GPT这样的参数和访问规模,其耗电量只会越来越大。

微软为训练ChatGPT所使用的是英伟达A100显卡,其典型功耗是400W,也就是说一张A100训练一天的能耗是400W * 24h = 9.6KWh,也就是9.6度电。

ChatGPT这样规模的AI应用至少也得大几千张A100,加上其他辅助系统(CPU、内存、降温等)的功耗,一天50万度电也只能算洒洒水。

AI不光耗电还耗水,AI训练需要大量的水去冷却计算机,据说GPT 3训练过程中大约消耗了 70 万升,如果一个用户与 ChatGPT 进行 25~50 个问题的对话,大概就相当于请 ChatGPT 喝了 500ml 水。

所以AI基础算力成为了一个非常大的壁垒,只有超级大公司才能拿到入场券。

回过头来,计算一项技术耗费多少电,本身是没有意义的,还要考虑它的产出,是否值得消耗这么多电。

过去一百年里,全球电动机消耗掉的电量就占到了总发电量的一半,但电动机所产生的价值远超其耗电量,如果AI能够给人类带来足够的价值,谁会去考虑它的耗电呢?当然这其中的公式还有待明确。

从能源的角度看,我的猜测是未来AI会主要依靠太阳能、风能等可再生能源,因为随着算力的不断扩大,仅仅靠煤炭、石油等传统能源是无法持续的,所以说AI革命也是能源革命啊。

相关推荐
蓝桉8023 分钟前
opencv学习(视频读取)
人工智能·opencv·学习
Hcoco_me13 分钟前
具身智能 && 自动驾驶相关岗位的技术栈与能力地图
人工智能·机器学习·自动驾驶
yinyan131440 分钟前
一起学springAI系列一:初体验
java·人工智能·ai
一只鹿鹿鹿1 小时前
【网络安全】信息网络安全建设方案(WORD)
人工智能·安全·spring·web安全·低代码
小拇指~1 小时前
梯度下降的基本原理
人工智能·算法·计算机视觉
AndrewHZ2 小时前
【图像处理基石】如何对遥感图像进行实例分割?
图像处理·人工智能·python·大模型·实例分割·detectron2·遥感图像分割
CodeShare2 小时前
某中心将举办机器学习峰会
人工智能·机器学习·数据科学
那就摆吧2 小时前
U-Net vs. 传统CNN:为什么医学图像分割需要跳过连接?
人工智能·神经网络·cnn·u-net·医学图像
深度学习实战训练营2 小时前
中英混合的语音识别XPhoneBERT 监督的音频到音素的编码器结合 f0 特征LID
人工智能·音视频·语音识别
WADesk---瓜子3 小时前
用 AI 自动生成口型同步视频,短视频内容也能一人完成
人工智能·音视频·语音识别·流量运营·用户运营