LlaMA_Factory实战微调Qwen-LLM大模型

1、数据集准备

复制代码
{
	"instruction": instruction,   	# 提示词
	"keypoint": keypoint,         	# 关键字
	"input": input,                 	# 用户输入+问题
	"output": out_put               # 指定输出
 }

2、添加数据集格式

在data文件夹-dataset_info.json中添加制作好的数据集,文本训练添加参考格式如下

复制代码
"alpaca_zh_demo": {
    "file_name": "alpaca_zh_demo.json"
}

总数据量:6448条

3、启动面板命令

复制代码
CUDA_VISIBLE_DEVICES=x llamafactory-cli webui  		#  x指定显卡

4、参数配置

主要参数:

epoch:8

截断长度:2048

数据量:6448

显存占用:14942MiB

其他默认即可,开始训练

显示训练完时间大概9小时左右

5、训练过程,观察并不是很收敛,且忘记设置截断长度,训练样本较长

6、修改参数重新训练

修改截断长度为10240,增加验证集比例,训练时长显示大约24H,显存占用:61620MiB

训练曲线:

最终曲线

输入数据格式:

复制代码
inputs:

<|im_start|>system
You are Qwen, created by Alibaba Cloud. You are a helpful assistant.<|im_end|>

<|im_start|>user
作为一个的AI助手,你的目标是帮助客户阅读并回答问题。
文件内容:督促施工单位确保本工程按期或提前完成.......。
用户问题:业绩要求
<|im_end|>

<|im_start|>assistant
业绩要求:见投标人须知前附表.....<|im_end|>

但是输入格式为:

复制代码
{
        "instruction": "作为一个的AI助手,你的目标是帮助客户阅读并回答问题。",
        "keypoint": "业绩相关评审标准",
        "input": "文件内容:【一级标题】.....\n\n     用户问题:业绩要求\n",
        "output": "业绩要求:见投标人须知前附表。"
    }

系统会将原始数据的instruction和input合并作为用户输入

相关推荐
珊珊而川2 小时前
MAC-SQL:SQL-Llama 的具体训练流程
sql·macos·llama
wljt2 小时前
Linux 常用命令速查手册(Java开发版)
java·linux·python
WPG大大通2 小时前
AIoT | 软件:Astra MCP边缘算力构建详解
经验分享·笔记·python·硬件架构·代码
ifeng09182 小时前
HarmonyOS实战项目:AI健康助手(影像识别与健康分析)
人工智能·华为·wpf·harmonyos
Aevget2 小时前
界面控件Telerik UI for WPF 2025 Q3亮点 - 集成AI编码助手
人工智能·ui·wpf·界面控件·ui开发·telerik
ccLianLian2 小时前
计算机视觉·TagCLIP
人工智能·算法
aneasystone本尊2 小时前
重温 Java 21 之虚拟线程
人工智能
geneculture2 小时前
官学商大跨界 · 产学研大综合:融智学新范式应用体系
大数据·人工智能·物联网·数据挖掘·哲学与科学统一性·信息融智学
波诺波2 小时前
环境管理器
linux·前端·python