大模型之一:大语言模型预训练的过程

介绍

大语言模型的一般训练过程(3步):1、预训练学知识,2、指令微调学格式,3、强化学习对齐人类偏好

预训练

所以要想大模型有领域知识,得增量预训练(靠指令微调记知识不靠谱,不是几十w条数据能做到的)

1. 准备工作

准备基座模型->收集数据->数据清洗

2. 增量预训练所用训练框架

超大规模训练:选用 3D 并行,Megatron-Deepspeed拥有多个成功案例

少量节点训练:选用张量并行,但张量并行只有在 nvlink 环境下才会起正向作用,但提升也不会太明显。

少量卡训练:如果资源特别少,显存怎么也不够,可以使用 LoRA 进行增量预训练。

3. 增量预训练

先用大规模通用语料预训练,再用小规模领域语料二次训练

直接进行大规模领域语料预训练

通用语料比例混合领域语料同时训练

4. 流程

数据预处理:参考 LLaMA 的预训练长度,也把数据处理成2048长度(如果不够,做补全)。

分词器:如果使用 LLaMA 可能需要添加中文词表,目前有不少人做了相关工作,当然也可以自己添加自己需要的词表。

原始模型:各家框架的模型层名不太一样,训练时可能需要做一些调整,在预训练时尽量选择基座模型,不选 Chat 模型。

训练模型:跑通只是第一步,根据训练情况反复调整比较重要。

模型转换:不同框架的checkpoint格式不同,还会根据并行度分成很多个文件。

模型测试:简单测试下续写能力,验证下模型是否正常。

相关推荐
天云数据4 分钟前
年末回顾:从鹦鹉到乌鸦,天云数据2025智能进化与产业深耕
人工智能
肾透侧视攻城狮11 分钟前
《解锁TensorFlow NLP实战:一站式掌握文本预处理、向量化技术与情感分析管道最佳实践》
人工智能·深度学习·文本预处理·向量化文本·向量化模式选项·bert分词器·tf构建文本处理管道
Zzz 小生13 分钟前
LangChain Short-term memory:短期记忆使用完全指南
人工智能·python·langchain·github
hqyjzsb18 分钟前
非技术管理层推动企业AI转型的系统化实施策略
人工智能·跳槽·创业创新·学习方法·业界资讯·远程工作·程序员创富
智慧地球(AI·Earth)19 分钟前
在Windows上使用Claude Code并集成到PyCharm IDE的完整指南
ide·人工智能·windows·python·pycharm·claude code
莫生灬灬23 分钟前
Cloak 指纹浏览器 2.0 - 全网首个支持 AI 和 Skill 的指纹浏览器
人工智能
琅琊榜首202025 分钟前
AI辅助小说转短剧:全流程实操与技术落地指南
人工智能
Katecat9966330 分钟前
【深度学习】Faster-RCNN改进:钩子状态识别与分类三种状态自动检测
人工智能·深度学习·分类
niuniudengdeng31 分钟前
一种基于HFF4材料的自消亡类脑芯片架构构想:把神经网络的训练变成物理化学过程
人工智能·神经网络·算法
Dr.AE41 分钟前
AI+政务 行业分析报告
大数据·人工智能·政务