【自然语言处理与大模型】使用Xtuner进行模型合并与导出

在上一篇文章中我为大家介绍了Xtuner框架如何进行QLoRA微调,这个框架在微调过后会得到适配器权重文件,它的后缀是.pth。但原模型都是huggingface模型,其后缀是safetensors。所以呢我们在使用这个框架导出模型之前要合并,合并之前要做数据转换。

(1)数据转换

Xtuner使用 PyTorch 训练出来的模型权重文件保存为 pth 格式(例如 iter_2000.pth;如果使用了 DeepSpeed,则会保存为一个文件夹)。为了便于后续使用,我们需要将其转换为 HuggingFace 模型格式,可以使用命令 xtuner convert pth_to_hf 来完成转换。具体命令如下:

bash 复制代码
xtuner convert pth_to_hf ${FINETUNE_CFG} ${PTH_PATH} ${SAVE_PATH}
# 例如:xtuner convert pth_to_hf internlm2_chat_7b_qlora_custom_sft_e1_copy.py ./iter_2000.pth ./iter_2000_hf

这里涉及的三个参数分别是:

  • ${FINETUNE_CFG} :这是微调配置文件的路径。这个配置文件包含了关于如何加载原始模型、adapter层以及如何进行转换的相关信息。它通常是 Python 脚本的形式,例如 internlm2_chat_7b_qlora_custom_sft_e1_copy.py

  • ${PTH_PATH} :这是要转换的 PyTorch 模型权重文件的路径。这通常是在训练过程中保存下来的检查点文件(checkpoint),例如 ./iter_2000.pth,表示经过 2000 步迭代后保存的模型权重。

  • ${SAVE_PATH} :这是转换后的 Hugging Face 格式的模型将要保存的位置。您可以指定一个目录,转换后的模型文件将会被存储在这个目录下。例如 ./iter_2000_hf 表示在当前目录下创建一个名为 iter_2000_hf 的文件夹,并将转换后的模型存放在里面。

(2)模型合并导出

若使用了 LoRA 或 QLoRA 进行微调,模型转换后将仅包含 adapter 参数,而不包含原始的 LLM 参数。如果你希望获得合并后的模型权重(例如用于后续评测)可以使用 xtuner convert merge 命令来完成这一操作:

bash 复制代码
# xtuner convert merge ${LLM} ${LLM_ADAPTER} ${SAVE_PATH}
xtuner convert merge /root/InternLM/models/Qwen3-0.6B /root/InternLM/models/Qwen3-0.6B_adapter /root/InternLM/models/merged_Qwen3-0.6B

其中参数为:

  • ${LLM}:原始 Qwen3-0.6B 模型位于 /root/InternLM/models/Qwen3-0.6B
  • ${LLM_ADAPTER}:微调后得到的 adapter 层(即训练好的额外层)位于 /root/InternLM/models/Qwen3-0.6B_adapter
  • ${SAVE_PATH}:我们希望将合并后的模型保存到 /root/InternLM/models/merged_Qwen3-0.6B
相关推荐
奇墨 ITQM6 分钟前
【QinAgent应用案例】从开发到管理,QinAgent为某智能家居企业提效50%,降本20%
人工智能·ai·云原生·智能家居
极术社区34 分钟前
【“星睿O6”AI PC开发套件评测】+ tensorflow 初探
人工智能
华为云PaaS服务小智1 小时前
华为云汪维敏:AI赋能应用现代化,加速金融生产力跃升
人工智能·金融·华为云
geneculture1 小时前
融智学数学符号体系的系统解读(之一)
人工智能·算法·机器学习
豆芽8192 小时前
生成对抗网络(GAN, Generative Adversarial Network)
人工智能·深度学习·神经网络·生成对抗网络·gan·vsg
从零开始学习人工智能3 小时前
深入解析 Stacking:集成学习的“超级英雄联盟
人工智能·机器学习·集成学习
黄昏ivi3 小时前
优化问题中变量分类与作用分析
人工智能·分类·数据挖掘
AI_Auto3 小时前
Google机器学习系列 - 监督学习
人工智能·学习·机器学习·数据分析
说私域3 小时前
基于开源AI大模型与AI智能名片S2B2C商城小程序的线上活动执行优化研究
人工智能·小程序·开源·零售