大语言模型的三阶段训练

为了训练专有领域模型,选择LLaMA2-7B作为基座模型,由于LLaMA模型中文词表有限,因此首先进行中文词表的扩展,然后进行三阶段训练(增量预训练,有监督微调,强化学习)。

代码将全部上传到github:

https://github.com/hjandlm/LLM_Train

1. 中文词表扩展

原生词表大小是32K,在词表扩展后,词表大小是63608。

2. 增量预训练

为了防止模型的通用能力减弱或消失,将通用数据和领域数据混合,经过调研决定设置5:1的数据配比进行增量预训练。由于资源有限,显卡是一块A100,40G,因此训练较慢。

目前还处于预训练阶段,情况如下:

训练集损失曲线:

测试集损失曲线:

后续将继续研究如何"炼丹",敬请期待!

3. 有监督微调

...

4. 强化学习

...

相关推荐
GISer_Jing几秒前
AI开发实战:从零搭建智能应用
人工智能·prompt·aigc
WZGL12301 分钟前
智慧养老方兴未艾,“AI+养老”让银龄老人晚年更美好
大数据·人工智能·物联网·生活·智能家居
aopstudio3 分钟前
Jinja 是什么?为什么大模型的聊天模板使用它?
自然语言处理·llm·jinja
狼爷5 分钟前
一文看懂 AI 世界里的新黑话Skills、MCP、Projects、Prompts
人工智能·openai·ai编程
疾风sxp7 分钟前
nl2sql技术实现自动sql生成之langchain4j SqlDatabaseContentRetriever
java·人工智能·langchain4j
DisonTangor8 分钟前
阿里Qwen开源Qwen3-VL-Embedding 和 Qwen3-VL-Reranker
人工智能·搜索引擎·开源·aigc·embedding
其美杰布-富贵-李9 分钟前
深度学习中的 tmux
服务器·人工智能·深度学习·tmux
<-->9 分钟前
deepspeed vs vllm
人工智能
Sinokap17 分钟前
Perplexity 10 月更新:AI 搜索体验再升级,让信息更近一步
人工智能·perplexity
檐下翻书17321 分钟前
PC端免费跨职能流程图模板大全 中文
大数据·人工智能·架构·流程图·论文笔记