【自然语言处理与大模型】使用Xtuner进行模型合并与导出

在上一篇文章中我为大家介绍了Xtuner框架如何进行QLoRA微调,这个框架在微调过后会得到适配器权重文件,它的后缀是.pth。但原模型都是huggingface模型,其后缀是safetensors。所以呢我们在使用这个框架导出模型之前要合并,合并之前要做数据转换。

(1)数据转换

Xtuner使用 PyTorch 训练出来的模型权重文件保存为 pth 格式(例如 iter_2000.pth;如果使用了 DeepSpeed,则会保存为一个文件夹)。为了便于后续使用,我们需要将其转换为 HuggingFace 模型格式,可以使用命令 xtuner convert pth_to_hf 来完成转换。具体命令如下:

bash 复制代码
xtuner convert pth_to_hf ${FINETUNE_CFG} ${PTH_PATH} ${SAVE_PATH}
# 例如:xtuner convert pth_to_hf internlm2_chat_7b_qlora_custom_sft_e1_copy.py ./iter_2000.pth ./iter_2000_hf

这里涉及的三个参数分别是:

  • ${FINETUNE_CFG} :这是微调配置文件的路径。这个配置文件包含了关于如何加载原始模型、adapter层以及如何进行转换的相关信息。它通常是 Python 脚本的形式,例如 internlm2_chat_7b_qlora_custom_sft_e1_copy.py

  • ${PTH_PATH} :这是要转换的 PyTorch 模型权重文件的路径。这通常是在训练过程中保存下来的检查点文件(checkpoint),例如 ./iter_2000.pth,表示经过 2000 步迭代后保存的模型权重。

  • ${SAVE_PATH} :这是转换后的 Hugging Face 格式的模型将要保存的位置。您可以指定一个目录,转换后的模型文件将会被存储在这个目录下。例如 ./iter_2000_hf 表示在当前目录下创建一个名为 iter_2000_hf 的文件夹,并将转换后的模型存放在里面。

(2)模型合并导出

若使用了 LoRA 或 QLoRA 进行微调,模型转换后将仅包含 adapter 参数,而不包含原始的 LLM 参数。如果你希望获得合并后的模型权重(例如用于后续评测)可以使用 xtuner convert merge 命令来完成这一操作:

bash 复制代码
# xtuner convert merge ${LLM} ${LLM_ADAPTER} ${SAVE_PATH}
xtuner convert merge /root/InternLM/models/Qwen3-0.6B /root/InternLM/models/Qwen3-0.6B_adapter /root/InternLM/models/merged_Qwen3-0.6B

其中参数为:

  • ${LLM}:原始 Qwen3-0.6B 模型位于 /root/InternLM/models/Qwen3-0.6B
  • ${LLM_ADAPTER}:微调后得到的 adapter 层(即训练好的额外层)位于 /root/InternLM/models/Qwen3-0.6B_adapter
  • ${SAVE_PATH}:我们希望将合并后的模型保存到 /root/InternLM/models/merged_Qwen3-0.6B
相关推荐
闭月之泪舞6 分钟前
OpenCv高阶(十九)——dlib关键点定位
人工智能·opencv·计算机视觉
AI technophile10 分钟前
OpenCV计算机视觉实战(9)——阈值化技术详解
人工智能·opencv·计算机视觉
HealthScience11 分钟前
pycharm debug的时候无法debug到指定的位置就停住不动了
人工智能·pytorch·深度学习
jndingxin12 分钟前
OpenCV CUDA模块直方图计算------在 GPU 上计算输入图像的直方图(histogram)函数histEven()
人工智能·opencv·计算机视觉
qyresearch_17 分钟前
商用飞机电池市场:现状、挑战与未来展望
大数据·人工智能
正在走向自律18 分钟前
AI新手入门解锁元生代MaaS平台:API工作流调用全攻略
人工智能·自然语言处理·知识库·rag·maas·openai 兼容接口
EasyDSS28 分钟前
视频监控汇聚平台EasyCVR工业与安全监控:防爆摄像机的安全应用与注意事项
网络·人工智能·音视频
油泼辣子多加29 分钟前
【大模型】Bert变种
人工智能·深度学习·bert
仙人掌_lz38 分钟前
小型语言模型:为何“小”才是“大”?
人工智能·ai·语言模型·自然语言处理·llm
柠石榴1 小时前
5.28 孔老师 nlp讲座
人工智能·自然语言处理