服务器LLama Factory Lora 微调模型过程记录

连接远程服务器

1、把训练需要的文件移动到服务端

bash 复制代码
scp wangfei@10.30.71.37:/Users/wangfei/Documents/code/python/smart_home_agent_v1/training/sft_train.json /home/ubuntu/lingzhi/wangf36_temp 

2、查看显卡占用情况

bash 复制代码
nvidia-smi

尴尬,有人在用

看看别人在干啥吧

js 复制代码
ps -fp 596080
ps -fp 596081
ps -fp 596082
ps -fp 596083

估计也在训练,只能等等了

查看dataset数据

json 复制代码
"smart_home_sft": {
    "file_name": "sft_train.json",
    "formatting": "sharegpt"
  }

把文件移动到data目录下面

bash 复制代码
mv /home/ubuntu/lingzhi/wangf36_temp/sft_train.json /home/ubuntu/lingzhi/LLaMA-Factory/data

查看训练文件

yaml 复制代码
### model
model_name_or_path: /home/ubuntu/lingzhi/base_model/Qwen3-4B-Instruct-2507
trust_remote_code: true

### method
stage: sft
do_train: true
finetuning_type: lora
lora_target: all

### lora config
lora_rank: 32
lora_alpha: 64
lora_dropout: 0.05

### dataset
dataset: smart_home_sft
dataset_dir: data
template: qwen
cutoff_len: 2048
overwrite_cache: true
preprocessing_num_workers: 8

### output
output_dir: saves/smart_home_lora_1
logging_steps: 5
save_steps: 50
plot_loss: true
overwrite_output_dir: true

### train
per_device_train_batch_size: 8
gradient_accumulation_steps: 2
learning_rate: 3.0e-4
num_train_epochs: 5.0
max_grad_norm: 1.0
lr_scheduler_type: cosine
warmup_ratio: 0.1
bf16: true

### distributed (4x H20)
ddp_timeout: 180000000
flash_attn: fa2

### eval
val_size: 0.1
per_device_eval_batch_size: 8
eval_strategy: steps
eval_steps: 50

开始训练

bash 复制代码
conda activate llama_factory
bash 复制代码
llamafactory-cli train /home/ubuntu/lingzhi/LLaMA-Factory/examples/train_lora/llama_factory_config.yaml
bash 复制代码
llamafactory-cli train examples/train_lora/llama_factory_config.yaml

合并lora权重

bash 复制代码
llamafactory-cli export \
  --model_name_or_path /home/ubuntu/lingzhi/base_model/Qwen3-4B-Instruct-2507 \
  --adapter_name_or_path /home/ubuntu/lingzhi/LLaMA-Factory/saves/smart_home_lora_1 \
  --finetuning_type lora \
  --export_dir /home/ubuntu/lingzhi/trained_models_real/smart_home_model_260422

使用vllm启动模型的api服务

bash 复制代码
python -m vllm.entrypoints.openai.api_server \
  --model /home/ubuntu/lingzhi/trained_models_real/smart_home_model_260422 \
  --host 0.0.0.0 \
  --port 8000 \
  --trust-remote-code \
  --served-model-name smart_home\
  --enable-auto-tool-choice \
  --tool-call-parser hermes 

本地测试

bash 复制代码
curl http://127.0.0.1:8000/v1/chat/completions \
  -H "Content-Type: application/json" \
  -d '{
    "model": "smart_home",
    "messages": [{"role": "user", "content": "打开客厅灯"}]
  }'

远程测试

bash 复制代码
curl http://172.21.12.16:8000/v1/chat/completions \
  -H "Content-Type: application/json" \
  -d '{
    "model": "smart_home",
    "messages": [{"role": "user", "content": "打开客厅灯"}]
  }'
js 复制代码
(llama_factory) ubuntu@VM-12-16-ubuntu:~/lingzhi/base_model/Qwen3-4B-Instruct-2507$ pwd
/home/ubuntu/lingzhi/base_model/Qwen3-4B-Instruct-2507
相关推荐
字节架构前端2 小时前
Life of a Token:像调试代码一样看懂大模型如何生成 Token
人工智能·aigc·openai
阿祖zu3 小时前
OpenClaw 入门到放弃:私人 AI 的初代原型机
前端·后端·aigc
王莎莎-MinerU3 小时前
MinerU + LangChain 实战:从 PDF 解析到 AI 问答全流程
人工智能·langchain·pdf·开源·产品运营·团队开发·个人开发
小糖学代码4 小时前
LLM系列:2.pytorch入门:2.PyTorch张量运算
pytorch·python·aigc·numpy
LeeeX!4 小时前
【OpenClaw最新版本】 命令行备忘录:高频操作与实战技巧
笔记·aigc·openclaw
用户6757049885024 小时前
AI开发实战2、只有 1% 的人知道!这样给 AI 发指令,写出的前端项目堪比阿里 P7
后端·aigc·ai编程
用户6757049885024 小时前
AI开发实战1、手摸手教你一行代码不写,全程AI写个小程序——前端布局
后端·aigc·ai编程
老王熬夜敲代码5 小时前
LangSmith监控与可视化
langchain
wq_6 小时前
从 Framework 到 Harness
aigc·ai编程