大模型-微调相关内容

大模型-微调相关内容

1、LoRA微调基本原理

相关概念:

python 复制代码
模型预训练:从头开始训练一个全新的模型(全新的模型是指模型的参数完全随机,不能处理任何的问题)
微调训练(迁移学习):基于之前训练好的模型,来继续学习新的任务。微调的目的往往是让模型具备新的或特定的能力。----全量微调、局部微调、增量微调
LoRA微调属于局部微调

LlamaFactory微调大模型流程记录

LlamaFactory框架安装:

项目github官网下载地址:

python 复制代码
https://github.com/hiyouga/LlamaFactory/tree/main

官方建议依赖版本:

根据上述官方依赖版本,我采用python版本是3.11,torch==2.5.0对应的cuda版本是11.8,具体如下:

python 复制代码
# 创建python3.11版本的虚拟环境
conda create -n llamafactory python=3.11  -y

# 安装torch版本是2.5.0
pip install torch==2.5.0 torchvision==0.20.0 torchaudio==2.5.0 --index-url https://download.pytorch.org/whl/cu118

接下来是重要的一步:安装flash-attention

该包采用pip安装的话,我在安装过程中出现卡顿的问题,所以,直接从其github官网下载对应版本的**.whl**文件包

python 复制代码
https://github.com/Dao-AILab/flash-attention

根据llama-factory官方推荐,安装的是v2.7.3

python 复制代码
https://github.com/Dao-AILab/flash-attention/releases/tag/v2.7.3


安装:

python 复制代码
pip install flash_attn-2.7.3+cu11torch2.5cxx11abiFALSE-cp311-cp311-linux_x86_64.whl

然后,安装llama-factory的正常依赖:

python 复制代码
cd LlamaFactory
pip install -e .
相关推荐
羊城迷鹿2 天前
从LoRA到OFT:Qwen2.5-VL在昇腾910B与4090上的多模态微调实践与踩坑记录
大模型·微调·多模态·qwen·llamafactory·oft
yubin12774086296 天前
llamafactory调试
llamafactory·qwen模型
jjjddfvv18 天前
超级简单启动llamafactory!
windows·python·深度学习·神经网络·微调·audiolm·llamafactory
程序员老奥1 个月前
【有手就行】SWIFT:花20分钟把大模型的名字变成你的名字
fine-tuning·大模型微调·ms-swift·认知微调
程序员老奥2 个月前
【有手就行】LoRA:用你自己的数据来微调大模型,让大模型真正懂你
lora·llm·fine-tuning·大模型微调
Study9962 个月前
科普专栏|大语言模型:理解与生成语言的人工智能
人工智能·深度学习·机器学习·大模型·agent·大模型微调·大模型应用开发
Yeliang Wu2 个月前
LLaMA-Factory 训练方法原理及实践(Ubuntu 22.04)
微调·分布式训练·量化·llamafactory
Yeliang Wu2 个月前
LLaMA-Factory 分布式训练实践
大模型·微调·分布式训练·llamafactory·调优算法
Yeliang Wu2 个月前
从原理到部署:LLaMA Factory 量化实战(Ubuntu 22.04)——PTQ/GPTQ/AWQ 等 9 种方法
大模型·微调·分布式训练·llamafactory·调优算法