使用LLaMA-Factory微调ChatGLM3

1、创建虚拟环境

2、部署LLaMA-Factory

(1)下载LLaMA-Factory

https://github.com/hiyouga/LLaMA-Factory

(2)安装依赖
bash 复制代码
pip3 install -r requirements.txt

(3)启动LLaMA-Factory的web页面

bash 复制代码
CUDA_VISIBLE_DEVICES=0 python src/train_web.py

得到如下页面:

3、ChatGLM3模型微调

设置如下参数,点击开始即可:

点击"预览命令",可以看到要执行的python脚本,如下所示:

bash 复制代码
CUDA_VISIBLE_DEVICES=0 python src/train_bash.py \
    --stage sft \
    --do_train \
    --model_name_or_path /root/LLaMA-Factory-main/chatglm3\
    --dataset alpaca_gpt4_zh \
    --template default \
    --finetuning_type lora \
    --lora_target q_proj,v_proj \
    --output_dir path_to_sft_checkpoint \
    --overwrite_cache \
    --per_device_train_batch_size 4 \
    --gradient_accumulation_steps 4 \
    --lr_scheduler_type cosine \
    --logging_steps 10 \
    --save_steps 1000 \
    --learning_rate 5e-5 \
    --num_train_epochs 3.0 \
    --plot_loss \
    --fp16

web页面和后台都会显示日志信息

4、推理测试

输入微调数据中的问题,回答贴合数据集,微调成功。

5、模型合并导出

待执行完,即可看到/root/LLaMA-Factory-main/merge路径下有了合并的模型了。

6、使用官方项目运行微调合并后的模型

可以看到也是没问题的。

7、过程中的问题

(1)合并后的模型无法加载,报错信息如下:
bash 复制代码
AttributeError: property 'eos_token' of 'ChatGLMTokenizer' object has no setter

解决方法:将源模型中除了bin文件和pytorch_model.bin.index.json 以外的文件全部复制到导出目录中覆盖。

(2)模型微调时使用自己的数据集

该项目目前支持两种格式的数据集:alpaca 和 sharegpt,我是用的是 alpaca 格式,数据集按照以下方式组织:

bash 复制代码
[
  {
    "instruction": "用户指令(必填)",
    "input": "用户输入(选填)",
    "output": "模型回答(必填)",
    "system": "系统提示词(选填)",
    "history": [
      ["第一轮指令(选填)", "第一轮回答(选填)"],
      ["第二轮指令(选填)", "第二轮回答(选填)"]
    ]
  }
]

将数据梳理好之后上传到data目录下。

接下来需要修改data/dataset_info.json,对于上述格式的数据,dataset_info.json 中的 columns 格式应为:

bash 复制代码
"数据集名称": {
  "columns": {
    "prompt": "instruction",
    "query": "input",
    "response": "output",
    "system": "system",
    "history": "history"
  }
}

我这里写的是:

bash 复制代码
"chatglm3": {
	"file_name": "chatglm3_train.json",
	"file_sha1": "e655af3db557a4197f7b0cf92e1986b08fae6311",
	"columns": {
		"prompt": "instruction",
		"query": "input",
		"response": "output",
		"system": "system",
		"history": "history"
  }
}
相关推荐
三月七(爱看动漫的程序员)1 天前
LEAST-TO-MOST PROMPTING ENABLES COMPLEX REASONING IN LARGE LANGUAGE MODELS---正文
人工智能·gpt·学习·机器学习·语言模型·自然语言处理·llama
码狂☆2 天前
源码编译llama.cpp for android
android·人工智能·llama
Ambition_LAO2 天前
LLaMA-Factory QuickStart 流程详解
llm·llama
宇梵文书C2 天前
在CFFF云平台使用llama-factory部署及微调Qwen2.5-7B-Instruct
llm·llama·cfff
CSBLOG3 天前
Day27 - 大模型微调,LLaMA搭建
人工智能·深度学习·llama
python_知世3 天前
基于LLaMA-Factory微调Llama3
人工智能·深度学习·程序人生·自然语言处理·大语言模型·llama·大模型微调
handsomelky3 天前
ollama本地部署大语言模型记录
人工智能·语言模型·自然语言处理·chatgpt·llama·ollama·gemma
曦云沐4 天前
Llama3模型详解 - Meta最新开源大模型全面解析
开源·llama
诚威_lol_中大努力中5 天前
关于llama2:从原始llama-2-7b到llama-2-7b-hf的权重转换教程
llama
乌漆嘎嘎黑6 天前
训练的Loss和输出突然全是nan【小白找bug】
pytorch·python·bug·llama·大模型权重文件