【自然语言处理与大模型】使用Xtuner进行模型合并与导出

在上一篇文章中我为大家介绍了Xtuner框架如何进行QLoRA微调,这个框架在微调过后会得到适配器权重文件,它的后缀是.pth。但原模型都是huggingface模型,其后缀是safetensors。所以呢我们在使用这个框架导出模型之前要合并,合并之前要做数据转换。

(1)数据转换

Xtuner使用 PyTorch 训练出来的模型权重文件保存为 pth 格式(例如 iter_2000.pth;如果使用了 DeepSpeed,则会保存为一个文件夹)。为了便于后续使用,我们需要将其转换为 HuggingFace 模型格式,可以使用命令 xtuner convert pth_to_hf 来完成转换。具体命令如下:

bash 复制代码
xtuner convert pth_to_hf ${FINETUNE_CFG} ${PTH_PATH} ${SAVE_PATH}
# 例如:xtuner convert pth_to_hf internlm2_chat_7b_qlora_custom_sft_e1_copy.py ./iter_2000.pth ./iter_2000_hf

这里涉及的三个参数分别是:

  • ${FINETUNE_CFG} :这是微调配置文件的路径。这个配置文件包含了关于如何加载原始模型、adapter层以及如何进行转换的相关信息。它通常是 Python 脚本的形式,例如 internlm2_chat_7b_qlora_custom_sft_e1_copy.py

  • ${PTH_PATH} :这是要转换的 PyTorch 模型权重文件的路径。这通常是在训练过程中保存下来的检查点文件(checkpoint),例如 ./iter_2000.pth,表示经过 2000 步迭代后保存的模型权重。

  • ${SAVE_PATH} :这是转换后的 Hugging Face 格式的模型将要保存的位置。您可以指定一个目录,转换后的模型文件将会被存储在这个目录下。例如 ./iter_2000_hf 表示在当前目录下创建一个名为 iter_2000_hf 的文件夹,并将转换后的模型存放在里面。

(2)模型合并导出

若使用了 LoRA 或 QLoRA 进行微调,模型转换后将仅包含 adapter 参数,而不包含原始的 LLM 参数。如果你希望获得合并后的模型权重(例如用于后续评测)可以使用 xtuner convert merge 命令来完成这一操作:

bash 复制代码
# xtuner convert merge ${LLM} ${LLM_ADAPTER} ${SAVE_PATH}
xtuner convert merge /root/InternLM/models/Qwen3-0.6B /root/InternLM/models/Qwen3-0.6B_adapter /root/InternLM/models/merged_Qwen3-0.6B

其中参数为:

  • ${LLM}:原始 Qwen3-0.6B 模型位于 /root/InternLM/models/Qwen3-0.6B
  • ${LLM_ADAPTER}:微调后得到的 adapter 层(即训练好的额外层)位于 /root/InternLM/models/Qwen3-0.6B_adapter
  • ${SAVE_PATH}:我们希望将合并后的模型保存到 /root/InternLM/models/merged_Qwen3-0.6B
相关推荐
倔强青铜三2 分钟前
苦练Python第15天:Lambda函数——Python的匿名一行杀器
人工智能·python·面试
两棵雪松18 分钟前
Faiss能解决什么问题?Faiss是什么?
人工智能·大模型
倔强青铜三21 分钟前
苦练Python第14天:Python函数中的*args与**kwargs解析
人工智能·python·面试
成都犀牛31 分钟前
LangChain 内存(Memory)
人工智能·机器学习·langchain
阿群今天学习了吗1 小时前
pytorch环境配置
人工智能·pytorch·python·学习·机器学习
ykjhr_3d1 小时前
智慧城市蓝图与数字孪生体系构建
人工智能·智慧城市·数字孪生
倔强青铜三2 小时前
苦练Python第13天:变量作用域、全局变量与局部变量
人工智能·python·面试
AI视觉网奇2 小时前
ICCV2025 特征点检测 图像匹配 RIPE
人工智能
Codebee2 小时前
OneCode 3.0架构深度剖析:工程模块管理与自主UI系统的设计与实现
人工智能·开源·全栈
倔强青铜三2 小时前
苦练Python第12天:函数三板斧,def、return、参数
人工智能·python·面试