基于LLaMA-Factory大语言模型微调实战-训练一个属于自己的大模型

第一章 LLaMA-Factory安装及SFT微调

LLaMA-Factory 安装

运行以下指令以安装 LLaMA-Factory 及其依赖:

powershell 复制代码
git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
pip install -e ".[torch,metrics]"

如果出现环境冲突,请尝试使用 pip install --no-deps -e . 解决

下载模型

在魔塔社区下载Qwen2.5-0.5B-Instruct模型

复制代码
git clone https://www.modelscope.cn/Qwen/Qwen2.5-0.5B-Instruct.git

SFT微调

微调命令

复制代码
llamafactory-cli train examples/train_lora/qwen2.5_lora_sft.yaml

说明:examples/train_lora/qwen2.5_lora_sft.yaml是LLaMA-Factory文件夹下面的相对文件路径;

qwen2.5_lora_sft.yaml文件内容

txt 复制代码
### model
# model_name_or_path:本地下载模型存放的绝对路径
### model
model_name_or_path: /mnt/workspace/models/Qwen2.5-0.5B-Instruct
trust_remote_code: true

### method 
stage: sft
do_train: true
finetuning_type: lora
lora_rank: 8
lora_target: all

### dataset数据集
dataset: identity
template: qwen
cutoff_len: 2048
max_samples: 1000
overwrite_cache: true
preprocessing_num_workers: 16
dataloader_num_workers: 4

### output 微调后模型存放的位置
output_dir: saves/Qwen2.5-0.5B-Instruct/lora/sft-2026-01-14-01
logging_steps: 10
save_steps: 500
plot_loss: true
overwrite_output_dir: true
save_only_model: false
report_to: none  # choices: [none, wandb, tensorboard, swanlab, mlflow]

### train
per_device_train_batch_size: 1
gradient_accumulation_steps: 8
learning_rate: 1.0e-4
num_train_epochs: 3.0
lr_scheduler_type: cosine
warmup_ratio: 0.1
bf16: true
ddp_timeout: 180000000
resume_from_checkpoint: null

### eval
# eval_dataset: alpaca_en_demo
# val_size: 0.1
# per_device_eval_batch_size: 1
# eval_strategy: steps
# eval_steps: 500

重要训练参数说明

数据集参数说明:

dataset: identity,identity是数据集json文件的名称,需要配置在/LLaMA-Factory/data/dataset_info.json文件中

identify.json文件路径为/LLaMA-Factory/data/identify.json,如下截图

微调过程截图

训练损失变化图

观察与分析

从 step 10 到 step 30,smoothed 曲线​ 从 loss ≈ 2.6 持续下降至 ≈ 1.4,表明模型在学习过程中逐步优化,微调有效。

相关推荐
测试_AI_一辰12 小时前
AI测试工程笔记 05:AI评测实践(从数据集到自动评测闭环)
人工智能·笔记·功能测试·自动化·ai编程
云境筑桃源哇13 小时前
海洋ALFA:主权与创新的交响,开启AI生态新纪元
人工智能
liliangcsdn13 小时前
LLM复杂数值的提取计算场景示例
人工智能·python
小和尚同志13 小时前
OpenCodeUI 让你随时随地 AI Coding
人工智能·aigc·ai编程
AI视觉网奇13 小时前
2d 数字人解决方案-待机动作
人工智能·计算机视觉
人工智能AI酱14 小时前
【AI深究】逻辑回归(Logistic Regression)全网最详细全流程详解与案例(附大量Python代码演示)| 数学原理、案例流程、代码演示及结果解读 | 决策边界、正则化、优缺点及工程建议
人工智能·python·算法·机器学习·ai·逻辑回归·正则化
爱喝可乐的老王14 小时前
机器学习监督学习模型--逻辑回归
人工智能·机器学习·逻辑回归
Ao00000014 小时前
机器学习——逻辑回归
人工智能·机器学习·逻辑回归
智算菩萨14 小时前
【How Far Are We From AGI】3 AGI的边界扩张——数字、物理与智能三重接口的技术实现与伦理困境
论文阅读·人工智能·深度学习·ai·agi
智算菩萨14 小时前
【How Far Are We From AGI】2 大模型的“灵魂“缺口:当感知、记忆与自我意识的迷雾尚未散去
人工智能·ai·agi·感知