llama-factory微调chatglm3

一、定义

  1. 案例/多卡

二、实现

  1. 案例
    1. 下载chatglm3-6b-32k模型
    2. 配置数据集
  2. 微调指令
bash 复制代码
CUDA_VISIBLE_DEVICES=0,1 llamafactory-cli train \
    --stage sft \
    --do_train True \
    --model_name_or_path /home/chatglm3-6b-32k \
    --finetuning_type lora \
    --template chatglm3 \
    --dataset_dir ./data \
    --dataset adgen_local \
    --cutoff_len 1024 \
    --learning_rate 5e-05 \
    --num_train_epochs 3.0 \
    --max_samples 1000 \
    --per_device_train_batch_size 2 \
    --gradient_accumulation_steps 8 \
    --lr_scheduler_type cosine \
    --max_grad_norm 1.0 \
    --logging_steps 5 \
    --save_steps 100 \
    --warmup_steps 0 \
    --optim adamw_torch \
    --output_dir saves/ChatGLM3-6B/lora/sft \
    --fp16 True \
    --lora_rank 8 \
    --lora_alpha 16 \
    --lora_dropout 0.1 \
    --lora_target query_key_value \
    --plot_loss True
  1. 推理
bash 复制代码
CUDA_VISIBLE_DEVICES=0 llamafactory-cli chat \
    --model_name_or_path /home/chatglm3-6b-32k \
    --adapter_name_or_path ./saves/ChatGLM3-6B/lora/sft  \
    --template chatglm3 \
    --finetuning_type lora
  1. 合并并导出
bash 复制代码
CUDA_VISIBLE_DEVICES=0 llamafactory-cli export \
    --model_name_or_path /home/chatglm3-6b-32k \
    --adapter_name_or_path ./saves/ChatGLM3-6B/lora/sft  \
    --template chatglm3 \
    --finetuning_type lora \
    --export_dir megred-model-chatglm3 \
    --export_size 2 \
    --export_device auto \
    --export_legacy_format False
相关推荐
格砸5 分钟前
从入门到辞职|从ChatGPT到OpenClaw,跟上智能时代的进化
前端·人工智能·后端
可观测性用观测云19 分钟前
可观测性 4.0:教系统如何思考
人工智能
sunny86532 分钟前
Claude Code 跨会话上下文恢复:从 8 次纠正到 0 次的工程实践
人工智能·开源·github
小笼包包仔1 小时前
OpenClaw 多Agent软件开发最佳实践指南
人工智能
smallyoung1 小时前
AgenticRAG:智能体驱动的检索增强生成
人工智能
_skyming_1 小时前
OpenCode 如何做到结果不做自动质量评估,为什么结果还不错?
人工智能
南山安1 小时前
手写 Cursor 核心原理:从 Node.js 进程到智能 Agent
人工智能·agent·设计
掘金安东尼2 小时前
如何为 AI 编码代理配置 Next.js 项目
人工智能
aircrushin2 小时前
轻量化大模型架构演进
人工智能·架构
文心快码BaiduComate3 小时前
百度云与光本位签署战略合作:用AI Agent 重构芯片研发流程
前端·人工智能·架构