LLAMA-Factory Qwen3-1.7b模型微调

一、LLaMA Factory介绍

  • 核心特点:一站式大模型微调工具包,支持几乎所有主流开源大模型(LLaMA 系列、Qwen、ChatGLM、Mistral、Yi 等),集成了多种微调策略(全量微调、LoRA、QLoRA、IA³、Prefix Tuning 等),并提供命令行和 Web UI 操作,对新手友好。

  • 优势:配置简单,支持多轮对话数据格式,内置常见数据集(如 Alpaca、ShareGPT 等),可直接对接 Hugging Face 模型和数据集,支持模型评估和部署导出,自定义超参数,界面支持中文、英文等多种语言;

  • 适用场景:快速验证微调效果、中小规模数据集微调、多模型对比实验。

  • 仓库地址:hiyouga/LLaMA-Factory

二、微调的过程

三、微调优势

  • 资源效率高:相比从头训练,微调所需数据量和计算资源大大减少。

  • 📦部署速度快:可以快速适配新任务,加快模型上线进程。

  • ✅性能提升明显:在特定任务上显著提高准确性和泛化能力。

  • 🌐领域适应性强:帮助模型更好地理解专业领域语言风格。

四、安装LLama-Factory

1、clone 源代码

复制代码
git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git

2、安装依赖

复制代码
cd LLaMA-Factory
pip install -e ".[torch,metrics]"

3、检查版本

复制代码
llamafactory-cli version

| Welcome to LLaMA Factory, version 0.9.4.dev0 |
| |

| Project page: https://github.com/hiyouga/LLaMA-Factory |

4、打开llamafactory可视化界面

复制代码
llamafactory-cli webui

五、模型微调

在ui界面上操作,调整下属四个参数:

1、选择你要微调的模型,最好提前用modelscope 下载模型,然后模型路径填本地模型所在的路径

https://modelscope.cn/models

复制代码
modelscope download --model Qwen/Qwen3-1.7B --local_dir

2、选择微调用的数据集,LLaMA Factory本身自带一些数据集,此次用另外一个自定义的数据集,执行命令下载自定义训练集;

复制代码
wget https://atp-modelzoo-sh.oss-cn-shanghai.aliyuncs.com/release/tutorials/llama_factory/data.zip

将其中的train.json复制到本地LLaMA Factory中的data路径下,同时,修改dataset_info.json,在底部增加train训练集;在回到ui界面就能看到train训练集的选项了;

3、调整学习率(非必须)

此处将学习率调的较大,主要是想快速验证模型微调后的效果,大概率是过拟合的,但可以微调前后问同一个问题,对比二者的差异;

4、迭代轮次(非必须)

此处轮次也没有设置太大,本身的训练集数据量很小,也只是想尽快出结果,毕竟也只是跑个demo;

六、微调前后模型测试

1、ui界面上可以看到实时的训练进度以及loss曲线,也可以在底部看到log日志以及显存使用量;

2、微调前

3、微调后

4、其实微调后的模型的回答更偏向我们微调的数据集,和数据集中的内容有部分一样,所以,可看出模型微调的作用,就是使其回答更靠近我们自定义的数据集;

七、导出模型

按照下图选择原始模型路径以及检查点路径,可导出微调后的模型;之后在部署时,可直接使用导出后的模型,即为微调后的模型

相关推荐
我狸才不是赔钱货8 小时前
AI大模型“战国策”:主流LLM平台简单介绍
c++·人工智能·程序人生·github·llama
临街的小孩2 天前
Docker 容器访问宿主机 Ollama 服务配置教程
llama·argflow
鸿蒙小白龙2 天前
OpenHarmony平台大语言模型本地推理:llama深度适配与部署技术详解
人工智能·语言模型·harmonyos·鸿蒙·鸿蒙系统·llama·open harmony
AI大模型5 天前
轻松搞定百个大模型微调!LLaMA-Factory:你的AI模型量产神器
程序员·llm·llama
fly五行9 天前
大模型基础入门与 RAG 实战:从理论到 llama-index 项目搭建(有具体代码示例)
python·ai·llama·llamaindex
德育处主任Pro13 天前
前端玩转大模型,DeepSeek-R1 蒸馏 Llama 模型的 Bedrock 部署
前端·llama
relis13 天前
AVX-512深度实现分析:从原理到LLaMA.cpp的性能优化艺术
性能优化·llama
relis15 天前
llama.cpp RMSNorm CUDA 优化分析报告
算法·llama
云雾J视界15 天前
开源革命下的研发突围:Meta Llama系列模型的知识整合实践与启示
meta·开源·llama·知识管理·知识整合·知识迭代·知识共享