LLM论文笔记 6: Training Compute-Optimal Large Language Models

  • Arxiv日期:2022.3.29
  • 机构:Google DeepMind

关键词

  • scaling law
  • power law
  • 参数量
  • FLOPS
  • tokes

核心结论

  1. 当前大多数大语言模型(如 GPT-3 和 Gopher)在计算预算分配上存在问题,模型参数过大而训练数据不足

  2. 计算预算计算方式(非首次提出,DeepSeek report 中被改进) FLOPS = 6ND

  3. 模型参数与训练数据的比例

  • 训练资源 ,模型参数 ,训练token数
  • 模型参数和训练数据呈相同倍率增长
  1. 不认可(Kaplan et al. 2020)提出的 a = 0.73, b = 0.27
  1. 进一步提高语言模型性能的关键在于获取更多高质量的训练数据,而不是盲目增加模型参数

  2. 数据质量 比数据规模更重要,应对训练数据进行高标准的筛选和去重,以避免数据泄漏和测试集重叠

主要方法

提出三种研究方法:

1. 固定模型大小,改变训练数据量

  • 在固定的模型大小 N 下,通过调整训练数据量(即训练的 token 数 D ),研究损失随计算预算 C 的变化趋势(估计给定 FLOPs 预算下的最优模型大小和所需的训练数据量)

  • 模型大小和训练数据量应随计算预算等比例增长

2. 固定 FLOPs,调整模型大小

  • 在固定计算预算(FLOPs) C 下,通过调整模型大小 N 和对应的训练 token 数 D ,研究损失的最小值随模型大小的变化趋势(直接研究了在特定计算预算下,最优的模型大小是多少)

  • 不同计算预算下的最优模型大小和训练数据量均与 FLOPs 呈近似线性关系

3. 拟合参数化损失函数

  • 构建一个基于模型大小 N 和训练数据量 D 的损失函数 L(N, D) ,并通过实验数据拟合其参数,推导出理论上的最优模型大小和训练数据量分配
  • 通过优化算法(L-BFGS)拟合参数 A, B, E, \alpha, \beta ,使得拟合损失函数与实验数据最为接近 / 使用 Huber 损失来提高对异常点的鲁棒性

  • 结合 FLOPs 约束 C = 6ND ,通过拉格朗日乘数法

三种方法总结:

补充

DeepSeek 技术报告中对 FLOPS=6ND 的计算方式进行了改进

参考 DeepSeek LLM Scaling Open-Source Language Models with Longtermism

提出 C = MD

使用参数 M 替代模型参数 N(认为模型参数不代表真实的计算量)

同时研究了超参数的 scaling law:超参数(batch size / lr)具有较宽的选择范围:

M / D关于C的缩放结论:

注:本系列不包括基础的知识点讲解,为笔记/大纲性质而非教程,用于论文知识点和思想和快速记忆和回顾,更多细节建议阅读论文原文

相关推荐
大猪宝宝学AI9 小时前
【AI Infra】SonicMoE论文笔记
论文阅读·人工智能·性能优化
sww_10269 小时前
Spring-AI和LangChain4j区别
java·人工智能·spring
Coovally AI模型快速验证9 小时前
超越Sora的开源思路:如何用预训练组件高效训练你的视频扩散模型?(附训练代码)
人工智能·算法·yolo·计算机视觉·音视频·无人机
GitCode官方9 小时前
参会预告 | AtomGit 邀您共赴 TritonNext 2026 技术大会,解锁 AI 系统与编译生态新机遇
人工智能·开源·atomgit
MobiusStack9 小时前
Cursor团队最新文章解读丨动态上下文发现,重新定义AI记忆
人工智能
Rui_Freely9 小时前
Vins-Fusion之 相机—IMU在线标定(十一)
人工智能·算法·计算机视觉
沛沛老爹9 小时前
Web开发者5分钟上手:Agent Skills环境搭建与基础使用实战
java·人工智能·llm·llama·rag·agent skills
DeepFlow 零侵扰全栈可观测10 小时前
3分钟定位OA系统GC瓶颈:DeepFlow全栈可观测平台实战解析
大数据·运维·人工智能·云原生·性能优化
想用offer打牌10 小时前
一站式讲清Spring AI Alibaba的OverAllState和RunnableConfig
人工智能·架构·github
生成论实验室10 小时前
生成论之基:“阴阳”作为元规则的重构与证成——基于《易经》与《道德经》的古典重诠与现代显象
人工智能·科技·神经网络·算法·架构