llamafactory 部署教程

llamafactory 部署教程

一、基础环境

1.创建Python环境

(1).创建Python 3.10环境
bash 复制代码
conda create --name llamafactory python=3.10 --all
(2).激活llamafactory 环境
bash 复制代码
conda activate llamafactory
(3). 验证Python环境
bash 复制代码
python --version

2.安装torch

对应CUDA 12.4

bash 复制代码
pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/cu124

PyTorch GPU 可用性

bash 复制代码
python -c "import torch; print(torch.__version__); print(torch.version.cuda); print(torch.cuda.is_available())"

3.安装注意力机制

Github 下载地址

下载对应版本的.whl文件

使用如下命令安装

bash 复制代码
pip install flash_attn-xxx.whl

二、部署并启动 llamafactory

1.克隆项目并安装依赖

bash 复制代码
git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
pip install -r requirements.txt

2.启动WebUI 界面

bash 复制代码
set CUDA_VISIBLE_DEVICES=0

llamafactory-cli webui

三、下载模型和数据集

1.从HuggingFace上使用迅雷进行下载

2.使用命令行进行下载数据集

登录huggingface,获取access token, 选择read

bash 复制代码
hf auth login

黏贴token

set set HF_ENDPOINT= 

hf download FreedomIntelligence/medical-o1-reasoning-SFT --repo-type dataset --local-dir ./data

四、启动llamafactory

1.启动llamafactory

bash 复制代码
llamafactory-cli webui