阅读笔记How to Set the Batch Size for Large-ScalePre-training?

1、 该论文重新修订了E(S)公式,该公式指的是总数据消耗 E 与达到特定损失所需优化步骤数 S 之间的关系。原先的公式,如下图,并不适用于现在大模型预训练的方法(现在普遍采用WSD学习率调度器),关键批大小理论失效。

解决方案 :论文为WSD调度器推导了一个新的、分段形式的 E(S) 关系公式。该公式将训练过程分为三个阶段:初始阶段(E与S呈反比关系)、过渡阶段(E是S的二次函数)和渐近阶段(E与S呈线性关系)。实验表明,新公式能精确拟合WSD下的预训练动态。

2、基于新的E(S)框架,论文解释了WSD预训练的两个基本属性:

(1)达到目标损失所需的最小批量大小阈值Bmin:为了达到特定的目标损失,批大小必须超过的一个物理最小值。几何上,它等于E(S)曲线渐近线的斜率。

(2)通过最小化总token数来最大化数据效率的最优批量大小Bopt:使得达到目标损失所需的总数据消耗最小的批大小。几何上,它等于从原点到E(S)曲线最小值点连线的斜率。

论文进一步发现,随着训练损失降低(即训练进行),Bmin和Bopt都呈现单调递增的趋势。

3、 鉴于Bopt随训练进程而增大的特性,在整个预训练过程中使用固定的批大小并非最优策略,提出了一种**动态batch size 调度器,**得到的策略能够显著提升训练效率和最终模型质量。

该策略根据训练已消耗的数据总量,分阶段地增加全局批大小(例如,在Qwen3模型的实验中,按照序列 {2M, 4M, 5M, 6M} 在每125B tokens后调整批大小)。

在Qwen3 Dense和MoE模型上的大量实验表明,与固定批大小基线相比,动态调度策略能获得更低的训练损失和更好的下游任务(MMLU, CMMLU)性能。


在related work里,作者提到了一个概念:scaling law 缩放定律

我特意去搜了这个词汇的意思:

缩放定律可以被视为大模型发展的"经验指南",是描述AI模型性能随模型规模、数据量或计算量增加而可以预测提升的统计规律。

神经缩放定律通常表现为三种形式:模型规模缩放,数据量缩放,计算量缩放。

相关推荐
lifallen10 小时前
Flink Agents:Python 执行链路与跨语言 Actor (PyFlink Agent)
java·大数据·人工智能·python·语言模型·flink
小二·10 小时前
2026年4月技术热点深度解析:AI智能体攻防、量子安全与云原生新纪元
人工智能·安全·云原生
江瀚视野10 小时前
京东健康综合门诊望京开业,京东医疗路在何方?
大数据·人工智能
飞凌嵌入式10 小时前
如何用JishuShell在RK3588核心板上快速部署OpenClaw?
arm开发·人工智能·嵌入式硬件·openclaw
IT_陈寒10 小时前
Vue的响应式更新把我坑惨了,原来是这个问题
前端·人工智能·后端
Tom·Ge10 小时前
告别“猜谜式编程”!详解规范驱动开发(SDD)在企业AI开发中的最佳实践
人工智能·驱动开发
SccTsAxR10 小时前
算法进阶:贪心策略证明全攻略与二进制倍增思想深度解析
c++·经验分享·笔记·算法
gyx_这个杀手不太冷静10 小时前
大人工智能时代下前端界面全新开发模式的思考(一)
前端·人工智能·ai编程
Sim148010 小时前
GPT-5倒计时:多模态AI助手大战一触即发,谁将主导下一代操作系统?
人工智能·gpt·microsoft
zhanghongbin0110 小时前
AI Observability Agent:大模型时代的监控利器
网络·人工智能