llama-factory微调chatglm3

一、定义

  1. 案例/多卡

二、实现

  1. 案例
    1. 下载chatglm3-6b-32k模型
    2. 配置数据集
  2. 微调指令
bash 复制代码
CUDA_VISIBLE_DEVICES=0,1 llamafactory-cli train \
    --stage sft \
    --do_train True \
    --model_name_or_path /home/chatglm3-6b-32k \
    --finetuning_type lora \
    --template chatglm3 \
    --dataset_dir ./data \
    --dataset adgen_local \
    --cutoff_len 1024 \
    --learning_rate 5e-05 \
    --num_train_epochs 3.0 \
    --max_samples 1000 \
    --per_device_train_batch_size 2 \
    --gradient_accumulation_steps 8 \
    --lr_scheduler_type cosine \
    --max_grad_norm 1.0 \
    --logging_steps 5 \
    --save_steps 100 \
    --warmup_steps 0 \
    --optim adamw_torch \
    --output_dir saves/ChatGLM3-6B/lora/sft \
    --fp16 True \
    --lora_rank 8 \
    --lora_alpha 16 \
    --lora_dropout 0.1 \
    --lora_target query_key_value \
    --plot_loss True
  1. 推理
bash 复制代码
CUDA_VISIBLE_DEVICES=0 llamafactory-cli chat \
    --model_name_or_path /home/chatglm3-6b-32k \
    --adapter_name_or_path ./saves/ChatGLM3-6B/lora/sft  \
    --template chatglm3 \
    --finetuning_type lora
  1. 合并并导出
bash 复制代码
CUDA_VISIBLE_DEVICES=0 llamafactory-cli export \
    --model_name_or_path /home/chatglm3-6b-32k \
    --adapter_name_or_path ./saves/ChatGLM3-6B/lora/sft  \
    --template chatglm3 \
    --finetuning_type lora \
    --export_dir megred-model-chatglm3 \
    --export_size 2 \
    --export_device auto \
    --export_legacy_format False
相关推荐
强盛小灵通专卖员9 分钟前
【中文核心期刊推荐】中国农业科技导报
人工智能·计算机视觉·期刊·中文核心期刊·导师·小论文
zskj_zhyl16 分钟前
科技向善:七彩喜康养平台如何用智能技术弥合“数字鸿沟”?
人工智能·科技
Edingbrugh.南空25 分钟前
Flink 2.0 DataStream算子全景
人工智能·flink
bin915329 分钟前
飞算 JavaAI:开启 Java 开发新时代
java·人工智能
哈__40 分钟前
学弟让我帮忙写一个学生管理系统的后端,我直接上科技
人工智能·ai
云空1 小时前
《探索电脑麦克风声音采集多窗口实时可视化技术》
人工智能·python·算法
麦兜*1 小时前
【Spring Boot】Spring Boot 4.0 的颠覆性AI特性全景解析,结合智能编码实战案例、底层架构革新及Prompt工程手册
java·人工智能·spring boot·后端·spring·架构
张较瘦_1 小时前
[论文阅读] 人工智能 | 5C提示词框架的研究
论文阅读·人工智能
超龄超能程序猿2 小时前
使用 Python 对本地图片进行图像分类
开发语言·人工智能·python·机器学习·分类·数据挖掘·scipy