大模型微调之LLaMA-Factory实战

目录

  • [1. 环境搭建](#1. 环境搭建)
  • [2. 开始调参](#2. 开始调参)
    • [2.1 模型配置](#2.1 模型配置)
    • [2.2 选择数据集](#2.2 选择数据集)
      • [2.2.1 使用自定义数据集](#2.2.1 使用自定义数据集)
    • [2.3 其他参数](#2.3 其他参数)
  • [3. 开始微调](#3. 开始微调)
  • [4. 模型评测](#4. 模型评测)
  • [5. 模型导出](#5. 模型导出)

1. 环境搭建

环境要求

Python ≥3.9

PyTorch & CUDA

GPU显存>24GB

安装命令

bash 复制代码
git clone https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
pip install -e ".[torch,metrics]"
llamafactory-cli webui

2. 开始调参

浏览器输入http://10.0.0.140:7861/进入调参页

2.1 模型配置

首先要选择要微调的模型,我们这里选择DeepSeek-R1-1.5B-Distill,如果预先没下载好模型,右侧模型下载源选择modelscope

2.2 选择数据集

2.2.1 使用自定义数据集

2.3 其他参数

其他参数根据需要自行调节

3. 开始微调

点击start即开始微调训练,训练完成后,可以在LLaMA-Factory-main/saves/DeepSeek-R1-1.5B-Distill/lora/train_2025-09-10-00-34-43/目录下找到微调后的模型即训练loss曲线图

从loss曲线图可以看出,虽然震荡比较厉害,但是整体趋势是一直在下降的

4. 模型评测

模型训练完成后,可以对模型进行评测

调参页选择Evaluate&Predict,然后点击Start即可。

完成后,会输出如下评测结果

5. 模型导出

在调参页选择Export,然后选在刚微调的模型,并填写导出路径,点击Export即开始导出。

导出完成后,可以在导出目录看到如下:

相关推荐
bulingg8 小时前
大模型——LLAMA框架介绍(含手撕)
llama
love530love9 小时前
冷门干货!llama.cpp 自带原生网页聊天 UI,无需第三方依赖一键开启
人工智能·windows·ui·llama·flash-attention·switch-cuda
HyperAI超神经1 天前
数据集汇总丨英伟达/OpenAI及多所科研机构开源推理数据集,覆盖数学/全景空间/Wiki问答/科研任务/视觉常识等
人工智能·深度学习·机器学习·数据集·ai编程·llama·图像合成
黑蛋同志2 天前
Ubuntu安装llama.cpp
linux·ubuntu·llama
耶夫斯计3 天前
Agent入门-Agent实战(skills\tools\prompt\subagents)
人工智能·prompt·llama
qq_452396233 天前
【模型手术室】第四篇:全流程实战 —— 使用 LLaMA-Factory 开启你的第一个微调任务
人工智能·python·ai·llama
忧郁的橙子.4 天前
11-Xtuner具体使用以及LLama Factory与Xtuner多卡微调大模型
llama·xtuner·分布式微调大模型
bugs_more_more4 天前
ollama下通过LLaMa-Factory微调qwen2.5:0.5b
llama
摸鱼仙人~5 天前
拆解 Llama 3.1 8B:从模型结构看懂大语言模型的核心设计
人工智能·语言模型·llama
python百炼成钢5 天前
16_RK3588 Llama-3-8B模型部署
linux·服务器·人工智能·llama