大模型-微调相关内容

大模型-微调相关内容

1、LoRA微调基本原理

相关概念:

python 复制代码
模型预训练:从头开始训练一个全新的模型(全新的模型是指模型的参数完全随机,不能处理任何的问题)
微调训练(迁移学习):基于之前训练好的模型,来继续学习新的任务。微调的目的往往是让模型具备新的或特定的能力。----全量微调、局部微调、增量微调
LoRA微调属于局部微调

LlamaFactory微调大模型流程记录

LlamaFactory框架安装:

项目github官网下载地址:

python 复制代码
https://github.com/hiyouga/LlamaFactory/tree/main

官方建议依赖版本:

根据上述官方依赖版本,我采用python版本是3.11,torch==2.5.0对应的cuda版本是11.8,具体如下:

python 复制代码
# 创建python3.11版本的虚拟环境
conda create -n llamafactory python=3.11  -y

# 安装torch版本是2.5.0
pip install torch==2.5.0 torchvision==0.20.0 torchaudio==2.5.0 --index-url https://download.pytorch.org/whl/cu118

接下来是重要的一步:安装flash-attention

该包采用pip安装的话,我在安装过程中出现卡顿的问题,所以,直接从其github官网下载对应版本的**.whl**文件包

python 复制代码
https://github.com/Dao-AILab/flash-attention

根据llama-factory官方推荐,安装的是v2.7.3

python 复制代码
https://github.com/Dao-AILab/flash-attention/releases/tag/v2.7.3


安装:

python 复制代码
pip install flash_attn-2.7.3+cu11torch2.5cxx11abiFALSE-cp311-cp311-linux_x86_64.whl

然后,安装llama-factory的正常依赖:

python 复制代码
cd LlamaFactory
pip install -e .
相关推荐
程序员老奥21 天前
【有手就行】SWIFT:花20分钟把大模型的名字变成你的名字
fine-tuning·大模型微调·ms-swift·认知微调
程序员老奥1 个月前
【有手就行】LoRA:用你自己的数据来微调大模型,让大模型真正懂你
lora·llm·fine-tuning·大模型微调
Study9961 个月前
科普专栏|大语言模型:理解与生成语言的人工智能
人工智能·深度学习·机器学习·大模型·agent·大模型微调·大模型应用开发
Yeliang Wu1 个月前
LLaMA-Factory 训练方法原理及实践(Ubuntu 22.04)
微调·分布式训练·量化·llamafactory
Yeliang Wu1 个月前
LLaMA-Factory 分布式训练实践
大模型·微调·分布式训练·llamafactory·调优算法
Yeliang Wu1 个月前
从原理到部署:LLaMA Factory 量化实战(Ubuntu 22.04)——PTQ/GPTQ/AWQ 等 9 种方法
大模型·微调·分布式训练·llamafactory·调优算法
Yeliang Wu1 个月前
LLaMA-Factory 加速技术全解析:FlashAttention/Unsloth/Liger Kernel 原理与 Ubuntu22.04 实践指南
微调·分布式训练·llamafactory·调优算法
Yeliang Wu1 个月前
LLaMA-Factory 主流调优算法详解
llamafactory·调优算法
Yeliang Wu1 个月前
LLaMA-Factory 模型评估理论与实战:基于 Ubuntu 22.04 的系统化指南
linux·ubuntu·llama·评估·llamafactory