LLaMA-Factory 微调LLaMA3

LoRA介绍

LoRA(Low-Rank Adaptation)是一种用于大模型微调的技术, 通过引入低秩矩阵来减少微调时的参数量。在预训练的模型中, LoRA通过添加两个小矩阵B和A来近似原始的大矩阵ΔW,从而减 少需要更新的参数数量。具体来说,LoRA通过将全参微调的增量 参数矩阵ΔW表示为两个参数量更小的矩阵B和A的低秩近似来实 现:

• [ W_0 + \Delta W = W_0 + BA ] • 其中,B和A的秩远小于原始矩阵的秩,从而大大减少了需要更新 的参数数量。

LLaMA-Factory 框架

首先需要通过vscode连接远程服务器哦

如果是租赁的AutoDL服务器,一定要将模型下载到数据盘。

git clone https://github.com/hiyouga/LLaMA-Factory.git

cd LLaMA-Factory

pip install -e .

准备训练数据

训练数据: fintech.json identity.json 将训练数据放在 LLaMA-Factory/data/fintech.json

并且修改数据注册文件:LLaMA-Factory/data/dataset_info.json

java 复制代码
 "fintech": {
 "file_name": "fintech.json",
 "columns": {
 "prompt": "instruction",
 "query": "input",
 "response": "output",
 "history": "history"
 }
 }

启动 Web UI

cd LLaMA-Factory

llamafactory-cli webui

vscode自带端口转发,不需要进行内网穿透了。

一定要在LLaMA-Factory 目录下启动。

模型准备

pip install modelscop #安装modelscope平台

sdk方式下载模型,同时可以查看模型整体的大小和权重。

模型微调,微调 Llama-3.2-1B-Instruct 模型

相关推荐
数据分享者17 小时前
对话对齐反馈数据集:12000+高质量人类-助手多轮对话用于RLHF模型训练与评估-人工智能-大语言模型对齐-人类反馈强化学习-训练符合人类期望的对话模型
人工智能·语言模型·自然语言处理
黑客思维者18 小时前
二次函数模型完整训练实战教程,理解非线性模型的拟合逻辑(超详细,零基础可懂)
人工智能·语言模型·非线性拟合·二次函数模型
小途软件18 小时前
ssm607家政公司服务平台的设计与实现+vue
java·人工智能·pytorch·python·深度学习·语言模型
小途软件19 小时前
基于深度学习的垃圾识别分类研究与实现
人工智能·pytorch·python·深度学习·语言模型
小途软件20 小时前
基于深度学习的人脸属性增强器
java·人工智能·pytorch·python·深度学习·语言模型
星辰引路-Lefan1 天前
在浏览器中运行大模型:基于 WebGPU 的本地 LLM 应用深度解析
ai·ai编程·llama·gpu算力
課代表1 天前
大语言模型能够理解的11种文件格式
人工智能·语言模型·自然语言处理·llm·markdown·token·模型
半壶清水1 天前
【开源免费】使用 Python + Whisper + PyDub 自动切割长音频文件
开发语言·python·语言模型·开源·whisper
gorgeous(๑>؂<๑)1 天前
【南京大学-李文斌-arXiv25】超高分辨率遥感多模态大语言模型基准测试
人工智能·语言模型·自然语言处理
Toky丶1 天前
【文献阅读】ARB-LLM: Alternating Refined Binarizations for Large Language Models
人工智能·语言模型·自然语言处理