LLaMA-Factory 微调LLaMA3

LoRA介绍

LoRA(Low-Rank Adaptation)是一种用于大模型微调的技术, 通过引入低秩矩阵来减少微调时的参数量。在预训练的模型中, LoRA通过添加两个小矩阵B和A来近似原始的大矩阵ΔW,从而减 少需要更新的参数数量。具体来说,LoRA通过将全参微调的增量 参数矩阵ΔW表示为两个参数量更小的矩阵B和A的低秩近似来实 现:

• [ W_0 + \Delta W = W_0 + BA ] • 其中,B和A的秩远小于原始矩阵的秩,从而大大减少了需要更新 的参数数量。

LLaMA-Factory 框架

首先需要通过vscode连接远程服务器哦

如果是租赁的AutoDL服务器,一定要将模型下载到数据盘。

git clone https://github.com/hiyouga/LLaMA-Factory.git

cd LLaMA-Factory

pip install -e .

准备训练数据

训练数据: fintech.json identity.json 将训练数据放在 LLaMA-Factory/data/fintech.json

并且修改数据注册文件:LLaMA-Factory/data/dataset_info.json

java 复制代码
 "fintech": {
 "file_name": "fintech.json",
 "columns": {
 "prompt": "instruction",
 "query": "input",
 "response": "output",
 "history": "history"
 }
 }

启动 Web UI

cd LLaMA-Factory

llamafactory-cli webui

vscode自带端口转发,不需要进行内网穿透了。

一定要在LLaMA-Factory 目录下启动。

模型准备

pip install modelscop #安装modelscope平台

sdk方式下载模型,同时可以查看模型整体的大小和权重。

模型微调,微调 Llama-3.2-1B-Instruct 模型

相关推荐
摸鱼仙人~1 天前
针对大语言模型文本审核逻辑鲁棒性与精细化规则编排的深度研究报告
人工智能·语言模型·自然语言处理
狮子座明仔1 天前
O-Researcher:多智能体蒸馏与强化学习打造开源深度研究新标杆
人工智能·深度学习·语言模型·自然语言处理·开源
学Linux的语莫1 天前
基于ollama、llamafile部署的大模型使用
linux·服务器·python·langchain·llama
CCPC不拿奖不改名1 天前
大语言模型基础:大语言模型核心原理(大语言模型和传统的机器学习的差异)
人工智能·机器学习·语言模型
路多辛1 天前
为大语言模型而生的节省成本数据格式 TOON 详解
人工智能·语言模型·自然语言处理
木头程序员1 天前
生成式AI可靠性与可控性技术研究:从真实性到可控编辑
图像处理·人工智能·深度学习·机器学习·计算机视觉·语言模型
斯外戈的小白1 天前
【LLM】完整LLaMA架构的搭建
架构·llama
万里不留行1 天前
【LangChain V1.0学习】第二课:批处理与持久化对话(通过完成情感机器人多轮对话进行学习)
人工智能·python·学习·语言模型·langchain
沛沛老爹1 天前
Web开发者进阶AI架构:Agent Skills与MCP的企业级架构权衡实战
java·人工智能·架构·llm·llama·rag
大模型任我行1 天前
腾讯:动态树强化学习框架DART
人工智能·语言模型·自然语言处理·论文笔记