在上一篇文章中我为大家介绍了Xtuner框架如何进行QLoRA微调,这个框架在微调过后会得到适配器权重文件,它的后缀是.pth。但原模型都是huggingface模型,其后缀是safetensors。所以呢我们在使用这个框架导出模型之前要合并,合并之前要做数据转换。
(1)数据转换
Xtuner使用 PyTorch 训练出来的模型权重文件保存为 pth 格式(例如 iter_2000.pth
;如果使用了 DeepSpeed,则会保存为一个文件夹)。为了便于后续使用,我们需要将其转换为 HuggingFace 模型格式,可以使用命令 xtuner convert pth_to_hf
来完成转换。具体命令如下:
bash
xtuner convert pth_to_hf ${FINETUNE_CFG} ${PTH_PATH} ${SAVE_PATH}
# 例如:xtuner convert pth_to_hf internlm2_chat_7b_qlora_custom_sft_e1_copy.py ./iter_2000.pth ./iter_2000_hf
这里涉及的三个参数分别是:
-
${FINETUNE_CFG}
:这是微调配置文件的路径。这个配置文件包含了关于如何加载原始模型、adapter层以及如何进行转换的相关信息。它通常是 Python 脚本的形式,例如internlm2_chat_7b_qlora_custom_sft_e1_copy.py
。 -
${PTH_PATH}
:这是要转换的 PyTorch 模型权重文件的路径。这通常是在训练过程中保存下来的检查点文件(checkpoint),例如./iter_2000.pth
,表示经过 2000 步迭代后保存的模型权重。 -
${SAVE_PATH}
:这是转换后的 Hugging Face 格式的模型将要保存的位置。您可以指定一个目录,转换后的模型文件将会被存储在这个目录下。例如./iter_2000_hf
表示在当前目录下创建一个名为iter_2000_hf
的文件夹,并将转换后的模型存放在里面。
(2)模型合并导出
若使用了 LoRA 或 QLoRA 进行微调,模型转换后将仅包含 adapter 参数,而不包含原始的 LLM 参数。如果你希望获得合并后的模型权重(例如用于后续评测)可以使用 xtuner convert merge
命令来完成这一操作:
bash
# xtuner convert merge ${LLM} ${LLM_ADAPTER} ${SAVE_PATH}
xtuner convert merge /root/InternLM/models/Qwen3-0.6B /root/InternLM/models/Qwen3-0.6B_adapter /root/InternLM/models/merged_Qwen3-0.6B
其中参数为:
${LLM}:
原始 Qwen3-0.6B 模型位于/root/InternLM/models/Qwen3-0.6B
。${LLM_ADAPTER}:
微调后得到的 adapter 层(即训练好的额外层)位于/root/InternLM/models/Qwen3-0.6B_adapter
。${SAVE_PATH}:
我们希望将合并后的模型保存到/root/InternLM/models/merged_Qwen3-0.6B
。