LLaMA-Factory大模型微调

一.LoRA 微调

(增量)预训练

llamafactory-cli train examples/train_lora/qwen3_lora_pretrain.yaml

指令监督微调

llamafactory-cli train examples/train_lora/qwen3_lora_sft.yaml

多模态指令监督微调

llamafactory-cli train examples/train_lora/qwen3vl_lora_sft.yaml

DPO/ORPO/SimPO 训练

llamafactory-cli train examples/train_lora/qwen3_lora_dpo.yaml

多模态 DPO/ORPO/SimPO 训练

llamafactory-cli train examples/train_lora/qwen3vl_lora_dpo.yaml

奖励模型训练

llamafactory-cli train examples/train_lora/qwen3_lora_reward.yaml

KTO 训练

llamafactory-cli train examples/train_lora/qwen3_lora_kto.yaml

预处理数据集

对于大数据集有帮助,在配置中使用 tokenized_path 以加载预处理后的数据集。

llamafactory-cli train examples/train_lora/qwen3_preprocess.yaml

多机指令监督微调

FORCE_TORCHRUN=1 NNODES=2 NODE_RANK=0 MASTER_ADDR=192.168.0.1 MASTER_PORT=29500 llamafactory-cli train examples/train_lora/qwen3_lora_sft.yaml

FORCE_TORCHRUN=1 NNODES=2 NODE_RANK=1 MASTER_ADDR=192.168.0.1 MASTER_PORT=29500 llamafactory-cli train examples/train_lora/qwen3_lora_sft.yaml

支持弹性和容错的多机指令监督微调

要启动一个支持弹性节点和容错的多机指令微调,在每个节点上执行以下命令。弹性节点数量范围为 MIN_NNODES:MAX_NNODES,每个节点最多允许因为错误重启 MAX_RESTARTS 次。RDZV_ID 应设置为一个唯一的作业 ID(由参与该作业的所有节点共享)。更多新可以参考官方文档 torchrun

FORCE_TORCHRUN=1 MIN_NNODES=1 MAX_NNODES=3 MAX_RESTARTS=3 RDZV_ID=llamafactory MASTER_ADDR=192.168.0.1 MASTER_PORT=29500 llamafactory-cli train examples/train_full/qwen3_full_sft.yaml

使用 DeepSpeed ZeRO-3 平均分配显存

FORCE_TORCHRUN=1 llamafactory-cli train examples/train_lora/qwen3_lora_sft_ds3.yaml

使用 Ray 在 4 张 GPU 上微调

USE_RAY=1 llamafactory-cli train examples/train_lora/qwen3_lora_sft_ray.yaml

二.QLoRA 微调

基于 4/8 比特 Bitsandbytes/HQQ/EETQ 量化进行指令监督微调(推荐)

llamafactory-cli train examples/train_qlora/qwen3_lora_sft_otfq.yaml

在 NPU 上基于 4 比特 Bitsandbytes 量化进行指令监督微调

llamafactory-cli train examples/train_qlora/qwen3_lora_sft_bnb_npu.yaml

基于 4/8 比特 GPTQ 量化进行指令监督微调

llamafactory-cli train examples/train_qlora/llama3_lora_sft_gptq.yaml

基于 4 比特 AWQ 量化进行指令监督微调

llamafactory-cli train examples/train_qlora/llama3_lora_sft_awq.yaml

基于 2 比特 AQLM 量化进行指令监督微调

llamafactory-cli train examples/train_qlora/llama3_lora_sft_aqlm.yaml

三.全参数微调

在单机上进行指令监督微调

FORCE_TORCHRUN=1 llamafactory-cli train examples/train_full/qwen3_full_sft.yaml

在多机上进行指令监督微调

FORCE_TORCHRUN=1 NNODES=2 NODE_RANK=0 MASTER_ADDR=192.168.0.1 MASTER_PORT=29500 llamafactory-cli train examples/train_full/qwen3_full_sft.yaml

FORCE_TORCHRUN=1 NNODES=2 NODE_RANK=1 MASTER_ADDR=192.168.0.1 MASTER_PORT=29500 llamafactory-cli train examples/train_full/qwen3_full_sft.yaml

多模态指令监督微调

FORCE_TORCHRUN=1 llamafactory-cli train examples/train_full/qwen3vl_full_sft.yaml

四、合并 LoRA 适配器与模型量化

合并 LoRA 适配器

注:请勿使用量化后的模型或 quantization_bit 参数来合并 LoRA 适配器。

llamafactory-cli export examples/merge_lora/qwen3_lora_sft.yaml

使用 AutoGPTQ 量化模型

llamafactory-cli export examples/merge_lora/qwen3_gptq.yaml

保存 Ollama 配置文件

llamafactory-cli export examples/merge_lora/qwen3_full_sft.yaml

五、推理 LoRA 模型

使用 vLLM 多卡推理评估

python scripts/vllm_infer.py --model_name_or_path Qwen/Qwen3-4B-Instruct-2507 --template qwen3_nothink --dataset alpaca_en_demo

python scripts/eval_bleu_rouge.py generated_predictions.jsonl

使用命令行对话框

llamafactory-cli chat examples/inference/qwen3_lora_sft.yaml

使用浏览器对话框

llamafactory-cli webchat examples/inference/qwen3_lora_sft.yaml

启动 OpenAI 风格 API

llamafactory-cli api examples/inference/qwen3_lora_sft.yaml

相关推荐
美酒没故事°12 小时前
Open WebUI安装指南。搭建自己的自托管 AI 平台
人工智能·windows·ai
云烟成雨TD12 小时前
Spring AI Alibaba 1.x 系列【6】ReactAgent 同步执行 & 流式执行
java·人工智能·spring
AI攻城狮12 小时前
用 Obsidian CLI + LLM 构建本地 RAG:让你的笔记真正「活」起来
人工智能·云原生·aigc
鸿乃江边鸟12 小时前
Nanobot 从onboard启动命令来看个人助理Agent的实现
人工智能·ai
lpfasd12312 小时前
基于Cloudflare生态的应用部署与开发全解
人工智能·agent·cloudflare
俞凡12 小时前
DevOps 2.0:智能体如何接管故障修复和基础设施维护
人工智能
comedate13 小时前
[OpenClaw] GLM 5 关于电影 - 人工智能 - 的思考
人工智能·电影评价
财迅通Ai13 小时前
6000万吨产能承压 卫星化学迎来战略窗口期
大数据·人工智能·物联网·卫星化学
liliangcsdn13 小时前
Agent Memory智能体记忆系统的示例分析
数据库·人工智能·全文检索
GISer_Jing13 小时前
Page-agent MCP结构
前端·人工智能