书生·浦语大模型实战营-学习笔记4

XTuner 大模型单卡低成本微调实战

Finetune简介

常见的两种微调策略:增量预训练、指令跟随

指令跟随微调

数据是一问一答的形式

对话模板构建

每个开源模型使用的对话模板都不相同

指令微调原理:

由于只有答案部分是我们期望模型来进行回答的内容,所以我们只对答案部分进行损失的计算

增量预训练微调

数据都是陈述句,没有问答形式

LoRA & QLoRA

XTuner中使用的微调原理:LoRA & QLoRA

如果我们要对整个模型的所有参数都进行调整的话,需要非常大的显存才能够进行训练,但是用LoRA的方法就不需要这么大的显存开销了

比较:全参数微调、LoRA、QLoRA

全参数微调:整个模型都要加载到显存中,所有模型参数的优化器也都要加载到显存中,显存不够根本无法进行·

LoRA:模型也是要先加载到显存中,但是我们只需要保存LoRA部分的参数优化器,大大减小了显存占用

QLoRA:加载模型时就使用4bit量化的方式加载(相当于不那么精确的加载),但是可以节省显存开销,QLoRA部分的参数优化器,还可以在GPU和CPU之间进行调度【这是Xtunner进行整合的功能 】,显存满了就自动去内存中去跑。

XTuner介绍


XTuner快速上手

  1. 安装
bash 复制代码
pip install xtuner
  1. 挑选配置模版
bash 复制代码
xtuner list-cfg -p internlm_20b
  1. 一键训练
bash 复制代码
xtuner train internlm_20b_qlora_oasst1_512_e3
  1. Config 命名规则

|-------|---------------------------------|
| 模型名 | internlm_20b ( 无 chat 代表是基座模型 ) |
| 使用算法 | qlora |
| 数据集 | oasst1 |
| 数据长度 | 512 |
| Epoch | e3, epoch 3 |

![在这里插入图片描述](https://img-blog.csdnimg.cn/direct/67e55262c53d4d988fa0948795877b8c.png) ![在这里插入图片描述](https://img-blog.csdnimg.cn/direct/2746f7cf958b47a1b2b388a43f5a9260.png) ![在这里插入图片描述](https://img-blog.csdnimg.cn/direct/3a93273b4b84489ca5be2e991156e1d6.png) ![在这里插入图片描述](https://img-blog.csdnimg.cn/direct/3a14ced892df4f02a58633f803aff1e9.png)

XTunner支持多数据的样本拼接,增加运行效率,输入模型,统一的进行梯度的传播

自定义数据集建议使用json格式

8GB显卡玩转LLM



动手实战环节

https://github.com/InternLM/tutorial/blob/main/xtuner/README.md

相关推荐
静心问道3 小时前
XLSR-Wav2Vec2:用于语音识别的无监督跨语言表示学习
人工智能·学习·语音识别
明似水9 天前
ChatGPT:人工智能对话革命的里程碑与未来展望
人工智能·chatgpt
伊泽瑞尔9 天前
打造极致聊天体验:uz-chat——全端AI聊天组件来了!
后端·chatgpt·openai
zeroporn9 天前
以玄幻小说方式打开深度学习词嵌入算法!! 使用Skip-gram来完成 Word2Vec 词嵌入(Embedding)
人工智能·深度学习·算法·自然语言处理·embedding·word2vec·skip-gram
懒惰的bit9 天前
STM32F103C8T6 学习笔记摘要(四)
笔记·stm32·学习
zkyqss9 天前
OVS Faucet练习(下)
linux·笔记·openstack
Zhijun.li@Studio9 天前
【LLaMA-Factory 实战系列】二、WebUI 篇 - Qwen2.5-VL 多模态模型 LoRA 微调保姆级教程
人工智能·自然语言处理·llama·多模态大模型
Jay_5159 天前
C++ STL 模板详解:由浅入深掌握标准模板库
c++·学习·stl
冰茶_9 天前
ASP.NET Core API文档与测试实战指南
后端·学习·http·ui·c#·asp.net
丶Darling.9 天前
深度学习与神经网络 | 邱锡鹏 | 第五章学习笔记 卷积神经网络
深度学习·神经网络·学习