大模型面试题:1B的模型和1T的数据大概要训练多久

我整理好的1000+面试题,请看
大模型面试题总结-CSDN博客

或者

https://gitee.com/lilitom/ai_interview_questions/blob/master/README.md

最好将URL复制到浏览器中打开,不然可能无法直接打开


好了,我们今天针对上面的问题,

1B的模型和1T的数据大概要训练多久?

首先明确下1B=10亿,1T=1万亿,预训练的时间和模型、数据、算力以及其它开销有关系,有这么一个公式,计算出训练时间和上述参数的关系:

训练时间=8 * token数 * 参数量/(GPU数量 * GPU的flops * GPU利用率)

其中对于不同的GPU其flops是不同的,一般情况下GPU的利用率在0.3-0.55之间。

那么对于1B的模型和1T的数据,假设1个GPU,大概的耗时为:

耗时= 8 * 10^9 * 1T / (1 * 300T * 0.3 ) = 1028天

上述的1T是1万亿的数据,300T是300TFLOPS,就是GPU每秒算300万亿次,这个8是怎么来的呢,因为对于每个token,每个模型参数,需要进行2次浮点运算,我们整体包括前向+后向+重激活整体是1+2+1=4,那么整体上就是8次了。

相关推荐
飞哥数智坊8 小时前
我的“龙虾”罢工了!正好对比下GLM、MiniMax、Kimi 3家谁更香
人工智能
风象南9 小时前
很多人说,AI 让技术平权了,小白也能乱杀老师傅 ?
人工智能·后端
董董灿是个攻城狮10 小时前
大模型连载1:了解 Token
人工智能
RoyLin12 小时前
沉睡三十年的标准:HTTP 402、生成式 UI 与智能体原生软件的时代
人工智能
needn14 小时前
TRAE为什么要发布SOLO版本?
人工智能·ai编程
毅航14 小时前
自然语言处理发展史:从规则、统计到深度学习
人工智能·后端
前端付豪15 小时前
LangChain链 写一篇完美推文?用SequencialChain链接不同的组件
人工智能·python·langchain
ursazoo15 小时前
写了一份 7000字指南,让 AI 帮我消化每天的信息流
人工智能·开源·github
_志哥_18 小时前
Superpowers 技术指南:让 AI 编程助手拥有超能力
人工智能·ai编程·测试
YongGit19 小时前
OpenClaw 本地 AI 助手完全指南:飞书接入 + 远程部署实战
人工智能