LLaMA-Factory 微调LLaMA3

LoRA介绍

LoRA(Low-Rank Adaptation)是一种用于大模型微调的技术, 通过引入低秩矩阵来减少微调时的参数量。在预训练的模型中, LoRA通过添加两个小矩阵B和A来近似原始的大矩阵ΔW,从而减 少需要更新的参数数量。具体来说,LoRA通过将全参微调的增量 参数矩阵ΔW表示为两个参数量更小的矩阵B和A的低秩近似来实 现:

• [ W_0 + \Delta W = W_0 + BA ] • 其中,B和A的秩远小于原始矩阵的秩,从而大大减少了需要更新 的参数数量。

LLaMA-Factory 框架

首先需要通过vscode连接远程服务器哦

如果是租赁的AutoDL服务器,一定要将模型下载到数据盘。

git clone https://github.com/hiyouga/LLaMA-Factory.git

cd LLaMA-Factory

pip install -e .

准备训练数据

训练数据: fintech.json identity.json 将训练数据放在 LLaMA-Factory/data/fintech.json

并且修改数据注册文件:LLaMA-Factory/data/dataset_info.json

java 复制代码
 "fintech": {
 "file_name": "fintech.json",
 "columns": {
 "prompt": "instruction",
 "query": "input",
 "response": "output",
 "history": "history"
 }
 }

启动 Web UI

cd LLaMA-Factory

llamafactory-cli webui

vscode自带端口转发,不需要进行内网穿透了。

一定要在LLaMA-Factory 目录下启动。

模型准备

pip install modelscop #安装modelscope平台

sdk方式下载模型,同时可以查看模型整体的大小和权重。

模型微调,微调 Llama-3.2-1B-Instruct 模型

相关推荐
阿正的梦工坊1 小时前
ProRL:延长强化学习训练,扩展大语言模型推理边界——NeurIPS 2025论文解读
人工智能·语言模型·自然语言处理
LiYingL3 小时前
针对大规模语言模型的离群值安全预训练创新,可防止离群值并保护量化准确性
人工智能·机器学习·语言模型
AI浩9 小时前
ROD-MLLM:迈向多模态大语言模型中更可靠的目标检测
目标检测·目标跟踪·语言模型
音元系统12 小时前
已有析音法
语言模型·语音识别·语音合成·输入法·语音分析
何小少13 小时前
从 Copilot 到 “Lab-pilot“:大语言模型在科学研究领域的应用现状与未来展望
人工智能·语言模型·copilot
我命由我1234514 小时前
Python 开发 - OpenAI 兼容阿里云百炼平台 API
开发语言·人工智能·后端·python·阿里云·ai·语言模型
你那是什么调调15 小时前
大语言模型如何“思考”与“创作”:以生成一篇杭州游记为例
人工智能·语言模型·chatgpt
DashVector15 小时前
通义 DeepResearch:开源 AI 智能体的新纪元
人工智能·阿里云·ai·语言模型
java1234_小锋16 小时前
Transformer 大语言模型(LLM)基石 - Transformer架构详解 - 层归一化(Layer Normalization)详解以及算法实现
深度学习·语言模型·transformer
阿杰学AI16 小时前
AI核心知识50——大语言模型之Scaling Laws(简洁且通俗易懂版)
人工智能·ai·语言模型·aigc·模型训练·缩放定律·scaling laws