LLaMA-Factory(一)环境配置及包下载

LLaMA-Factory(一)环境配置及包下载

  • 本机配置
  • [1. git下载](#1. git下载)
  • 2.创建虚拟环境
  • [3. 下载官方包内依赖](#3. 下载官方包内依赖)
  • [4. 下载bitsandbytes](#4. 下载bitsandbytes)
  • [5. 启动项目](#5. 启动项目)
  • [6. 可能出现问题1:pip install 出现 error: subprocess-exited-with-error 错误](#6. 可能出现问题1:pip install 出现 error: subprocess-exited-with-error 错误)
  • [7. 可能出现问题2: ModuleNotFoundError: No module named '_distutils_hack'](#7. 可能出现问题2: ModuleNotFoundError: No module named ‘_distutils_hack‘)

本机配置

操作系统:Window11

CPU:AMD Ryzen 9 7945HX with Radeon Graphics 2.50 GHz

RAM:16.0 GB (15.7 GB 可用)

GPU: NVIDIA GeForce RTX 4060 Laptop GPU 8G

CUDA版本:12.6 (可以在PowerShell或CMD下输入 nvidia-smi 命令查看自己的CUDA版本)

1. git下载

GitHub链接:https://github.com/hiyouga/LLaMA-Factory

git链接:

bash 复制代码
git clone https://github.com/hiyouga/LLaMA-Factory.git

下载后解压压缩包

2.创建虚拟环境

需要提前下载Anaconda3或miniconda

创建虚拟环境

官方Readme推荐python版本3.11

bash 复制代码
conda create -n llm python=3.11 -y

激活环境

bash 复制代码
conda activate llm

3. 下载官方包内依赖

在项目目录下CMD打开命令行窗口或使用cd命令到对应目录

bash 复制代码
pip install -e ".[torch,metrics]"

4. 下载bitsandbytes

bash 复制代码
pip install bitsandbytes

bash 复制代码
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple bitsandbytes

5. 启动项目

设置环境变量打开项目

bash 复制代码
Set CUDA_VISIBLE_DEVICES=0
Set GRADIO_SHARE=1
llamafactory-cli webui

也可将打开项目命令替换为

bash 复制代码
python src/webui.py

在目录下运行webui.py (类似GPT-Sovits)

启动成功

6. 可能出现问题1:pip install 出现 error: subprocess-exited-with-error 错误

新建conda环境 setuptools可能有问题

bash 复制代码
pip uninstall setuptools
pip install setuptools==69.0.0

7. 可能出现问题2: ModuleNotFoundError: No module named '_distutils_hack'

Error processing line 1 of /home/chenqianyi/anaconda3/envs/pysyft/lib/python3.7/site-packages/distutils-precedence.pth:

Traceback (most recent call last):

File "/home/chenqianyi/anaconda3/envs/pysyft/lib/python3.7/site.py", line 168, in addpackage

exec(line)

File "", line 1, in

ModuleNotFoundError: No module named '_distutils_hack'

打开目录文件home/chenqianyi/anaconda3/envs/pysyft/lib/python3.7/site-packages/distutils-precedence.pth

在import os; 后换行

相关推荐
Jina AI9 小时前
让 llama.cpp 支持多模态向量模型
llama
wyw00009 小时前
大模型微调之LLaMA-Factory实战
llama
2202_756749699 小时前
LLM大模型-大模型微调(常见微调方法、LoRA原理与实战、LLaMA-Factory工具部署与训练、模型量化QLoRA)
人工智能·深度学习·llama
JoannaJuanCV9 小时前
大模型训练框架:LLaMA-Factory框架
llama·大模型训练·llama factory
骑士9991113 天前
llama_factory 安装以及大模型微调
llama
周小码4 天前
llama-stack实战:Python构建Llama应用的可组合开发框架(8k星)
开发语言·python·llama
blackoon886 天前
DeepSeek R1大模型微调实战-llama-factory的模型下载与训练
llama
johnny2336 天前
大模型微调理论、实战:LLaMA-Factory、Unsloth
llama
闲看云起6 天前
从 GPT 到 LLaMA:解密 LLM 的核心架构——Decoder-Only 模型
gpt·架构·llama
小草cys8 天前
在树莓派集群上部署 Distributed Llama (Qwen 3 14B) 详细指南
python·llama·树莓派·qwen