LLAMA-Factory Qwen3-1.7b模型微调

一、LLaMA Factory介绍

  • 核心特点:一站式大模型微调工具包,支持几乎所有主流开源大模型(LLaMA 系列、Qwen、ChatGLM、Mistral、Yi 等),集成了多种微调策略(全量微调、LoRA、QLoRA、IA³、Prefix Tuning 等),并提供命令行和 Web UI 操作,对新手友好。

  • 优势:配置简单,支持多轮对话数据格式,内置常见数据集(如 Alpaca、ShareGPT 等),可直接对接 Hugging Face 模型和数据集,支持模型评估和部署导出,自定义超参数,界面支持中文、英文等多种语言;

  • 适用场景:快速验证微调效果、中小规模数据集微调、多模型对比实验。

  • 仓库地址:hiyouga/LLaMA-Factory

二、微调的过程

三、微调优势

  • 资源效率高:相比从头训练,微调所需数据量和计算资源大大减少。

  • 📦部署速度快:可以快速适配新任务,加快模型上线进程。

  • ✅性能提升明显:在特定任务上显著提高准确性和泛化能力。

  • 🌐领域适应性强:帮助模型更好地理解专业领域语言风格。

四、安装LLama-Factory

1、clone 源代码

复制代码
git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git

2、安装依赖

复制代码
cd LLaMA-Factory
pip install -e ".[torch,metrics]"

3、检查版本

复制代码
llamafactory-cli version

| Welcome to LLaMA Factory, version 0.9.4.dev0 |
| |

| Project page: https://github.com/hiyouga/LLaMA-Factory |

4、打开llamafactory可视化界面

复制代码
llamafactory-cli webui

五、模型微调

在ui界面上操作,调整下属四个参数:

1、选择你要微调的模型,最好提前用modelscope 下载模型,然后模型路径填本地模型所在的路径

https://modelscope.cn/models

复制代码
modelscope download --model Qwen/Qwen3-1.7B --local_dir

2、选择微调用的数据集,LLaMA Factory本身自带一些数据集,此次用另外一个自定义的数据集,执行命令下载自定义训练集;

复制代码
wget https://atp-modelzoo-sh.oss-cn-shanghai.aliyuncs.com/release/tutorials/llama_factory/data.zip

将其中的train.json复制到本地LLaMA Factory中的data路径下,同时,修改dataset_info.json,在底部增加train训练集;在回到ui界面就能看到train训练集的选项了;

3、调整学习率(非必须)

此处将学习率调的较大,主要是想快速验证模型微调后的效果,大概率是过拟合的,但可以微调前后问同一个问题,对比二者的差异;

4、迭代轮次(非必须)

此处轮次也没有设置太大,本身的训练集数据量很小,也只是想尽快出结果,毕竟也只是跑个demo;

六、微调前后模型测试

1、ui界面上可以看到实时的训练进度以及loss曲线,也可以在底部看到log日志以及显存使用量;

2、微调前

3、微调后

4、其实微调后的模型的回答更偏向我们微调的数据集,和数据集中的内容有部分一样,所以,可看出模型微调的作用,就是使其回答更靠近我们自定义的数据集;

七、导出模型

按照下图选择原始模型路径以及检查点路径,可导出微调后的模型;之后在部署时,可直接使用导出后的模型,即为微调后的模型

相关推荐
菠菠萝宝2 天前
【AI应用探索】-7- LLaMA-Factory微调模型
人工智能·深度学习·大模型·llm·nlp·attention·llama
wuningw2 天前
Windows环境下LLaMA-Factory微调模型时“未检测到CUDA环境”
llama
喜欢吃豆4 天前
llama.cpp 全方位技术指南:从底层原理到实战部署
人工智能·语言模型·大模型·llama·量化·llama.cpp
skywalk81635 天前
在星河社区部署大模型unsloth/Llama-3.3-70B-Instruct-GGUF
llama·aistudio
鹿子沐5 天前
LlamaFactory微调效果与vllm部署效果不一致
人工智能·llama
三千院本院6 天前
LlaMA_Factory实战微调Qwen-LLM大模型
人工智能·python·深度学习·llama
珊珊而川6 天前
MAC-SQL:SQL-Llama 的具体训练流程
sql·macos·llama
共绩算力6 天前
Llama 4 Maverick Scout 多模态MoE新里程碑
人工智能·llama·共绩算力
yanzhilv8 天前
Ollama + Open WebUI
llama
喜欢吃豆9 天前
掌握本地化大语言模型部署:llama.cpp 工作流与 GGUF 转换内核全面技术指南
人工智能·语言模型·架构·大模型·llama·llama.cpp·gguf