llamafactory 部署教程
一、基础环境
1.创建Python环境
(1).创建Python 3.10环境
            
            
              bash
              
              
            
          
          conda create --name llamafactory python=3.10 --all(2).激活llamafactory 环境
            
            
              bash
              
              
            
          
          conda activate llamafactory(3). 验证Python环境
            
            
              bash
              
              
            
          
          python --version2.安装torch
对应CUDA 12.4
            
            
              bash
              
              
            
          
          pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/cu124PyTorch GPU 可用性
            
            
              bash
              
              
            
          
          python -c "import torch; print(torch.__version__); print(torch.version.cuda); print(torch.cuda.is_available())"3.安装注意力机制
下载对应版本的.whl文件
使用如下命令安装
            
            
              bash
              
              
            
          
          pip install flash_attn-xxx.whl二、部署并启动 llamafactory
1.克隆项目并安装依赖
            
            
              bash
              
              
            
          
          git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
pip install -r requirements.txt2.启动WebUI 界面
            
            
              bash
              
              
            
          
          set CUDA_VISIBLE_DEVICES=0
llamafactory-cli webui三、下载模型和数据集
1.从HuggingFace上使用迅雷进行下载
2.使用命令行进行下载数据集
登录huggingface,获取access token, 选择read
            
            
              bash
              
              
            
          
          hf auth login
黏贴token
set set HF_ENDPOINT= 
hf download FreedomIntelligence/medical-o1-reasoning-SFT --repo-type dataset --local-dir ./data四、启动llamafactory
1.启动llamafactory
            
            
              bash
              
              
            
          
          llamafactory-cli webui