使用 LLaMA-Factory 微调

复制代码
git clone https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
pip install -e .
pip install tf-keras

dataset_info.json\](dataset_info.json) 包含了所有可用的数据集。如果您希望使用自定义数据集,请\*\*务必\*\*在 \`dataset_info.json\` 文件中添加\*数据集描述\*,并通过修改 \`dataset: 数据集名称\` 配置来使用数据集。 目前我们支持 \*\*alpaca\*\* 格式和 \*\*sharegpt\*\* 格式的数据集。 \`\`\`json "数据集名称": { "hf_hub_url": "Hugging Face 的数据集仓库地址(若指定,则忽略 script_url 和 file_name)", "ms_hub_url": "ModelScope 的数据集仓库地址(若指定,则忽略 script_url 和 file_name)", "script_url": "包含数据加载脚本的本地文件夹名称(若指定,则忽略 file_name)", "file_name": "该目录下数据集文件夹或文件的名称(若上述参数未指定,则此项必需)", "formatting": "数据集格式(可选,默认:alpaca,可以为 alpaca 或 sharegpt)", "ranking": "是否为偏好数据集(可选,默认:False)", "subset": "数据集子集的名称(可选,默认:None)", "split": "所使用的数据集切分(可选,默认:train)", "folder": "Hugging Face 仓库的文件夹名称(可选,默认:None)", "num_samples": "该数据集所使用的样本数量。(可选,默认:None)", "columns(可选)": { "prompt": "数据集代表提示词的表头名称(默认:instruction)", "query": "数据集代表请求的表头名称(默认:input)", "response": "数据集代表回答的表头名称(默认:output)", "history": "数据集代表历史对话的表头名称(默认:None)", "messages": "数据集代表消息列表的表头名称(默认:conversations)", "system": "数据集代表系统提示的表头名称(默认:None)", "tools": "数据集代表工具描述的表头名称(默认:None)", "images": "数据集代表图像输入的表头名称(默认:None)", "videos": "数据集代表视频输入的表头名称(默认:None)", "chosen": "数据集代表更优回答的表头名称(默认:None)", "rejected": "数据集代表更差回答的表头名称(默认:None)", "kto_tag": "数据集代表 KTO 标签的表头名称(默认:None)" }, "tags(可选,用于 sharegpt 格式)": { "role_tag": "消息中代表发送者身份的键名(默认:from)", "content_tag": "消息中代表文本内容的键名(默认:value)", "user_tag": "消息中代表用户的 role_tag(默认:human)", "assistant_tag": "消息中代表助手的 role_tag(默认:gpt)", "observation_tag": "消息中代表工具返回结果的 role_tag(默认:observation)", "function_tag": "消息中代表工具调用的 role_tag(默认:function_call)", "system_tag": "消息中代表系统提示的 role_tag(默认:system,会覆盖 system column)" } } \`\`\` ## Alpaca 格式 ### 指令监督微调数据集 SFT - \[样例数据集\](alpaca_zh_demo.json) 在指令监督微调时,\`instruction\` 列对应的内容会与 \`input\` 列对应的内容拼接后作为人类指令,即人类指令为 \`instruction\\ninput\`。而 \`output\` 列对应的内容为模型回答。 如果指定,\`system\` 列对应的内容将被作为系统提示词。 \`history\` 列是由多个字符串二元组构成的列表,分别代表历史消息中每轮对话的指令和回答。注意在指令监督微调时,历史消息中的回答内容\*\*也会被用于模型学习\*\*。 \`\`\`json \[ { "instruction": "人类指令(必填)", "input": "人类输入(选填)", "output": "模型回答(必填)", "system": "系统提示词(选填)", "history": \[ \["第一轮指令(选填)", "第一轮回答(选填)"\], \["第二轮指令(选填)", "第二轮回答(选填)"

]

}

]

```

对于上述格式的数据,`dataset_info.json` 中的*数据集描述*应为:

```json

"数据集名称": {

"file_name": "data.json",

"columns": {

"prompt": "instruction",

"query": "input",

"response": "output",

"system": "system",

"history": "history"

}

}

```

预训练数据集 CPT

  • 样例数据集\](c4_demo.json)

```json

{"text": "document"}, {"text": "document"}

```

对于上述格式的数据,`dataset_info.json` 中的*数据集描述*应为:

```json

"数据集名称": {

"file_name": "data.json",

"columns": {

"prompt": "text"

}

}

```

偏好数据集 DPO

偏好数据集用于奖励模型训练、DPO 训练、ORPO 训练和 SimPO 训练。

它需要在 `chosen` 列中提供更优的回答,并在 `rejected` 列中提供更差的回答。

```json

{ "instruction": "人类指令(必填)", "input": "人类输入(选填)", "chosen": "优质回答(必填)", "rejected": "劣质回答(必填)" }

```

对于上述格式的数据,`dataset_info.json` 中的*数据集描述*应为:

```json

"数据集名称": {

"file_name": "data.json",

"ranking": true,

"columns": {

"prompt": "instruction",

"query": "input",

"chosen": "chosen",

"rejected": "rejected"

}

}

```

KTO 数据集

KTO 数据集需要提供额外的 `kto_tag` 列。详情请参阅 [sharegpt](#sharegpt-格式)。

多模态图像数据集

多模态图像数据集需要提供额外的 `images` 列。详情请参阅 [sharegpt](#sharegpt-格式)。

多模态视频数据集

多模态视频数据集需要提供额外的 `videos` 列。详情请参阅 [sharegpt](#sharegpt-格式)。

Sharegpt 格式

指令监督微调数据集 SFT

  • 样例数据集\](glaive_toolcall_zh_demo.json)

注意其中 human 和 observation 必须出现在奇数位置,gpt 和 function 必须出现在偶数位置。

```json

{ "conversations": \[ { "from": "human", "value": "人类指令" }, { "from": "function_call", "value": "工具参数" }, { "from": "observation", "value": "工具结果" }, { "from": "gpt", "value": "模型回答" } \], "system": "系统提示词(选填)", "tools": "工具描述(选填)" }

```

对于上述格式的数据,`dataset_info.json` 中的*数据集描述*应为:

```json

"数据集名称": {

"file_name": "data.json",

"formatting": "sharegpt",

"columns": {

"messages": "conversations",

"system": "system",

"tools": "tools"

}

}

```

预训练数据集 CPT

尚不支持,请使用 [alpaca](#alpaca-格式) 格式。

偏好数据集

  • 样例数据集\](dpo_zh_demo.json)

```json

{ "conversations": \[ { "from": "human", "value": "人类指令" }, { "from": "gpt", "value": "模型回答" }, { "from": "human", "value": "人类指令" } \], "chosen": { "from": "gpt", "value": "优质回答" }, "rejected": { "from": "gpt", "value": "劣质回答" } }

```

对于上述格式的数据,`dataset_info.json` 中的*数据集描述*应为:

```json

"数据集名称": {

"file_name": "data.json",

"formatting": "sharegpt",

"ranking": true,

"columns": {

"messages": "conversations",

"chosen": "chosen",

"rejected": "rejected"

}

}

```

KTO 数据集

  • 样例数据集\](kto_en_demo.json)

```json

{ "conversations": \[ { "from": "human", "value": "人类指令" }, { "from": "gpt", "value": "模型回答" } \], "kto_tag": "人类反馈 \[true/false\](必填)" }

```

对于上述格式的数据,`dataset_info.json` 中的*数据集描述*应为:

```json

"数据集名称": {

"file_name": "data.json",

"formatting": "sharegpt",

"columns": {

"messages": "conversations",

"kto_tag": "kto_tag"

}

}

```

多模态图像数据集

  • 样例数据集\](mllm_demo.json)

注意图片的数量必须与文本中所有 `<image>` 标记的数量严格一致。

```json

{ "conversations": \[ { "from": "human", "value": "\人类指令" }, { "from": "gpt", "value": "模型回答" } \], "images": \[ "图像路径(必填)"

}

]

```

对于上述格式的数据,`dataset_info.json` 中的*数据集描述*应为:

```json

"数据集名称": {

"file_name": "data.json",

"formatting": "sharegpt",

"columns": {

"messages": "conversations",

"images": "images"

}

}

```

多模态视频数据集

  • 样例数据集\](mllm_video_demo.json)

注意视频的数量必须与文本中所有 `<video>` 标记的数量严格一致。

```json

{ "conversations": \[ { "from": "human", "value": "\人类指令" }, { "from": "gpt", "value": "模型回答" } \], "videos": \[ "视频路径(必填)"

}

]

```

对于上述格式的数据,`dataset_info.json` 中的*数据集描述*应为:

```json

"数据集名称": {

"file_name": "data.json",

"formatting": "sharegpt",

"columns": {

"messages": "conversations",

"videos": "videos"

}

}

```

OpenAI 格式

OpenAI 格式仅仅是 sharegpt 格式的一种特殊情况,其中第一条消息可能是系统提示词。

```json

{ "messages": \[ { "role": "system", "content": "系统提示词(选填)" }, { "role": "user", "content": "人类指令" }, { "role": "assistant", "content": "模型回答" }

}

]

```

对于上述格式的数据,`dataset_info.json` 中的*数据集描述*应为:

```json

"数据集名称": {

"file_name": "data.json",

"formatting": "sharegpt",

"columns": {

"messages": "messages"

},

"tags": {

"role_tag": "role",

"content_tag": "content",

"user_tag": "user",

"assistant_tag": "assistant",

"system_tag": "system"

}

}

```

笔者这里建议先CPT >>>>SFT(通用领域+专业领域)>>>>DPO

相关推荐
F_D_Z1 分钟前
TensorFlow Playground 交互式神经网络可视化工具
人工智能·神经网络·tensorflow
杭州泽沃电子科技有限公司5 分钟前
核电的“热血管”与它的智能脉搏:热转换在线监测如何守护能源生命线
人工智能·在线监测
yuzhiboyouye11 分钟前
指引上调是什么意思
人工智能
昨夜见军贴061628 分钟前
IACheck × AI审核:重构来料证书报告审核流程,赋能生产型企业高质量发展
人工智能·重构
OidEncoder31 分钟前
绝对值编码器工作原理、与增量编码器的区别及单圈多圈如何选择?
人工智能
计算机科研狗@OUC36 分钟前
(NeurIPS25) Spiking Meets Attention: 基于注意力脉冲神经网络的高效遥感图像超分辨率重建
人工智能·神经网络·超分辨率重建
EasyGBS38 分钟前
EasyGBS打造变电站高效智能视频监控解决方案
网络·人工智能·音视频
汤姆yu38 分钟前
基于深度学习的杂草检测系统
人工智能·深度学习
LaughingZhu39 分钟前
Product Hunt 每日热榜 | 2026-01-06
人工智能·经验分享·深度学习·神经网络·产品运营
东方佑39 分钟前
SamOutVXP-2601: 轻量级高效语言模型
人工智能·语言模型·自然语言处理