llama-factory微调chatglm3

一、定义

  1. 案例/多卡

二、实现

  1. 案例
    1. 下载chatglm3-6b-32k模型
    2. 配置数据集
  2. 微调指令
bash 复制代码
CUDA_VISIBLE_DEVICES=0,1 llamafactory-cli train \
    --stage sft \
    --do_train True \
    --model_name_or_path /home/chatglm3-6b-32k \
    --finetuning_type lora \
    --template chatglm3 \
    --dataset_dir ./data \
    --dataset adgen_local \
    --cutoff_len 1024 \
    --learning_rate 5e-05 \
    --num_train_epochs 3.0 \
    --max_samples 1000 \
    --per_device_train_batch_size 2 \
    --gradient_accumulation_steps 8 \
    --lr_scheduler_type cosine \
    --max_grad_norm 1.0 \
    --logging_steps 5 \
    --save_steps 100 \
    --warmup_steps 0 \
    --optim adamw_torch \
    --output_dir saves/ChatGLM3-6B/lora/sft \
    --fp16 True \
    --lora_rank 8 \
    --lora_alpha 16 \
    --lora_dropout 0.1 \
    --lora_target query_key_value \
    --plot_loss True
  1. 推理
bash 复制代码
CUDA_VISIBLE_DEVICES=0 llamafactory-cli chat \
    --model_name_or_path /home/chatglm3-6b-32k \
    --adapter_name_or_path ./saves/ChatGLM3-6B/lora/sft  \
    --template chatglm3 \
    --finetuning_type lora
  1. 合并并导出
bash 复制代码
CUDA_VISIBLE_DEVICES=0 llamafactory-cli export \
    --model_name_or_path /home/chatglm3-6b-32k \
    --adapter_name_or_path ./saves/ChatGLM3-6B/lora/sft  \
    --template chatglm3 \
    --finetuning_type lora \
    --export_dir megred-model-chatglm3 \
    --export_size 2 \
    --export_device auto \
    --export_legacy_format False
相关推荐
bytebeats3 分钟前
MCP 服务器与 FastAPI 的集成
人工智能·mcp
bubiyoushang88812 分钟前
MATLAB实现图像纹理特征提取
人工智能·算法·matlab
万能程序员-传康Kk15 分钟前
Monte Carlo衍生品定价(金融工程)
人工智能·金融
苏苏susuus20 分钟前
深度学习:PyTorch张量基本运算、形状改变、索引操作、升维降维、维度转置、张量拼接
人工智能·pytorch·深度学习
拖拖76527 分钟前
让大模型真正”思考”:Reinforcement Pre-Training(RPT)论文解读与实践
人工智能·aigc
sbc-study28 分钟前
深度自编码器 (Deep Autoencoder, DAE)
人工智能·机器学习
亚图跨际30 分钟前
探索弹性弦行为:从绘图到问题解决-AI云计算数值分析和代码验证
人工智能·云计算
MarkGosling30 分钟前
【图片转 3D 模型】北大·字节跳动·CMU携手——单图15 秒生成结构化3D模型!
人工智能·开源·图像识别
bytebeats31 分钟前
基于A2A/MCP的AI代理架构
人工智能·mcp
柠檬味拥抱33 分钟前
稀疏矩阵的压缩表示与高效乘法机制研究
人工智能