基于LLaMA-Factory大语言模型微调实战-训练一个属于自己的大模型

第一章 LLaMA-Factory安装及SFT微调

LLaMA-Factory 安装

运行以下指令以安装 LLaMA-Factory 及其依赖:

powershell 复制代码
git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
pip install -e ".[torch,metrics]"

如果出现环境冲突,请尝试使用 pip install --no-deps -e . 解决

下载模型

在魔塔社区下载Qwen2.5-0.5B-Instruct模型

复制代码
git clone https://www.modelscope.cn/Qwen/Qwen2.5-0.5B-Instruct.git

SFT微调

微调命令

复制代码
llamafactory-cli train examples/train_lora/qwen2.5_lora_sft.yaml

说明:examples/train_lora/qwen2.5_lora_sft.yaml是LLaMA-Factory文件夹下面的相对文件路径;

qwen2.5_lora_sft.yaml文件内容

txt 复制代码
### model
# model_name_or_path:本地下载模型存放的绝对路径
### model
model_name_or_path: /mnt/workspace/models/Qwen2.5-0.5B-Instruct
trust_remote_code: true

### method 
stage: sft
do_train: true
finetuning_type: lora
lora_rank: 8
lora_target: all

### dataset数据集
dataset: identity
template: qwen
cutoff_len: 2048
max_samples: 1000
overwrite_cache: true
preprocessing_num_workers: 16
dataloader_num_workers: 4

### output 微调后模型存放的位置
output_dir: saves/Qwen2.5-0.5B-Instruct/lora/sft-2026-01-14-01
logging_steps: 10
save_steps: 500
plot_loss: true
overwrite_output_dir: true
save_only_model: false
report_to: none  # choices: [none, wandb, tensorboard, swanlab, mlflow]

### train
per_device_train_batch_size: 1
gradient_accumulation_steps: 8
learning_rate: 1.0e-4
num_train_epochs: 3.0
lr_scheduler_type: cosine
warmup_ratio: 0.1
bf16: true
ddp_timeout: 180000000
resume_from_checkpoint: null

### eval
# eval_dataset: alpaca_en_demo
# val_size: 0.1
# per_device_eval_batch_size: 1
# eval_strategy: steps
# eval_steps: 500

重要训练参数说明

数据集参数说明:

dataset: identity,identity是数据集json文件的名称,需要配置在/LLaMA-Factory/data/dataset_info.json文件中

identify.json文件路径为/LLaMA-Factory/data/identify.json,如下截图

微调过程截图

训练损失变化图

观察与分析

从 step 10 到 step 30,smoothed 曲线​ 从 loss ≈ 2.6 持续下降至 ≈ 1.4,表明模型在学习过程中逐步优化,微调有效。

相关推荐
needn15 小时前
TRAE为什么要发布SOLO版本?
人工智能·ai编程
毅航15 小时前
自然语言处理发展史:从规则、统计到深度学习
人工智能·后端
前端付豪16 小时前
LangChain链 写一篇完美推文?用SequencialChain链接不同的组件
人工智能·python·langchain
ursazoo16 小时前
写了一份 7000字指南,让 AI 帮我消化每天的信息流
人工智能·开源·github
_志哥_19 小时前
Superpowers 技术指南:让 AI 编程助手拥有超能力
人工智能·ai编程·测试
YongGit20 小时前
OpenClaw 本地 AI 助手完全指南:飞书接入 + 远程部署实战
人工智能
程序员鱼皮1 天前
斯坦福大学竟然开了个 AI 编程课?!我已经学上了
人工智能·ai编程
星浩AI1 天前
Skill 的核心要素与渐进式加载架构——如何设计一个生产可用的 Skill?
人工智能·agent
树獭非懒1 天前
告别繁琐多端开发:DivKit 带你玩转 Server-Driven UI!
android·前端·人工智能
阿尔的代码屋1 天前
[大模型实战 07] 基于 LlamaIndex ReAct 框架手搓全自动博客监控 Agent
人工智能·python