LLaMA-Factory 微调LLaMA3

LoRA介绍

LoRA(Low-Rank Adaptation)是一种用于大模型微调的技术, 通过引入低秩矩阵来减少微调时的参数量。在预训练的模型中, LoRA通过添加两个小矩阵B和A来近似原始的大矩阵ΔW,从而减 少需要更新的参数数量。具体来说,LoRA通过将全参微调的增量 参数矩阵ΔW表示为两个参数量更小的矩阵B和A的低秩近似来实 现:

• [ W_0 + \Delta W = W_0 + BA ] • 其中,B和A的秩远小于原始矩阵的秩,从而大大减少了需要更新 的参数数量。

LLaMA-Factory 框架

首先需要通过vscode连接远程服务器哦

如果是租赁的AutoDL服务器,一定要将模型下载到数据盘。

git clone https://github.com/hiyouga/LLaMA-Factory.git

cd LLaMA-Factory

pip install -e .

准备训练数据

训练数据: fintech.json identity.json 将训练数据放在 LLaMA-Factory/data/fintech.json

并且修改数据注册文件:LLaMA-Factory/data/dataset_info.json

java 复制代码
 "fintech": {
 "file_name": "fintech.json",
 "columns": {
 "prompt": "instruction",
 "query": "input",
 "response": "output",
 "history": "history"
 }
 }

启动 Web UI

cd LLaMA-Factory

llamafactory-cli webui

vscode自带端口转发,不需要进行内网穿透了。

一定要在LLaMA-Factory 目录下启动。

模型准备

pip install modelscop #安装modelscope平台

sdk方式下载模型,同时可以查看模型整体的大小和权重。

模型微调,微调 Llama-3.2-1B-Instruct 模型

相关推荐
纤纡.10 小时前
本地部署 AI 大模型保姆级教程:Ollama 安装、模型下载与终端实战全流程
人工智能·深度学习·语言模型·llama
阿珊和她的猫12 小时前
从实践中提炼的架构设计与工程规范
ai·agent·llama·cli·mcp
liulilittle16 小时前
LLAMA-CLI 运行千问3.6(R9-7945HX+64G+RTX40608G)
java·前端·llama
python零基础入门小白16 小时前
Transformer、Token、RAG全解析,一篇读懂大模型核心机制!
人工智能·深度学习·学习·语言模型·大模型·transformer·产品经理
码上掘金17 小时前
基于 YOLO 的小麦麦穗检测系统的设计与实现
人工智能·yolo·语言模型
生成论实验室17 小时前
《事件关系阴阳博弈动力学:识势应势之道》第十一篇:双脑协同——WOLM与大模型的共生智能
人工智能·算法·语言模型·架构·创业创新
不知名的老吴18 小时前
一文看懂:针对大语言模型的提示注入攻击
人工智能·语言模型·自然语言处理
青山师18 小时前
【大模型提示词工程深度解析:从原理到工业级实践、实践案例】
大模型·prompt·aigc·ai编程·llama·claude·agi
流年似水~18 小时前
Copilot已死,Agent当立:2026年,程序员从“码字工“到“AI指挥官“的生存指南
人工智能·程序人生·语言模型·ai编程
AIGC安琪20 小时前
Transformer 和 LLM 到底是什么关系?
人工智能·深度学习·ai·语言模型·程序员·大模型·transformer