LLaMA-Factory(一)环境配置及包下载

LLaMA-Factory(一)环境配置及包下载

  • 本机配置
  • [1. git下载](#1. git下载)
  • 2.创建虚拟环境
  • [3. 下载官方包内依赖](#3. 下载官方包内依赖)
  • [4. 下载bitsandbytes](#4. 下载bitsandbytes)
  • [5. 启动项目](#5. 启动项目)
  • [6. 可能出现问题1:pip install 出现 error: subprocess-exited-with-error 错误](#6. 可能出现问题1:pip install 出现 error: subprocess-exited-with-error 错误)
  • [7. 可能出现问题2: ModuleNotFoundError: No module named '_distutils_hack'](#7. 可能出现问题2: ModuleNotFoundError: No module named ‘_distutils_hack‘)

本机配置

操作系统:Window11

CPU:AMD Ryzen 9 7945HX with Radeon Graphics 2.50 GHz

RAM:16.0 GB (15.7 GB 可用)

GPU: NVIDIA GeForce RTX 4060 Laptop GPU 8G

CUDA版本:12.6 (可以在PowerShell或CMD下输入 nvidia-smi 命令查看自己的CUDA版本)

1. git下载

GitHub链接:https://github.com/hiyouga/LLaMA-Factory

git链接:

bash 复制代码
git clone https://github.com/hiyouga/LLaMA-Factory.git

下载后解压压缩包

2.创建虚拟环境

需要提前下载Anaconda3或miniconda

创建虚拟环境

官方Readme推荐python版本3.11

bash 复制代码
conda create -n llm python=3.11 -y

激活环境

bash 复制代码
conda activate llm

3. 下载官方包内依赖

在项目目录下CMD打开命令行窗口或使用cd命令到对应目录

bash 复制代码
pip install -e ".[torch,metrics]"

4. 下载bitsandbytes

bash 复制代码
pip install bitsandbytes

bash 复制代码
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple bitsandbytes

5. 启动项目

设置环境变量打开项目

bash 复制代码
Set CUDA_VISIBLE_DEVICES=0
Set GRADIO_SHARE=1
llamafactory-cli webui

也可将打开项目命令替换为

bash 复制代码
python src/webui.py

在目录下运行webui.py (类似GPT-Sovits)

启动成功

6. 可能出现问题1:pip install 出现 error: subprocess-exited-with-error 错误

新建conda环境 setuptools可能有问题

bash 复制代码
pip uninstall setuptools
pip install setuptools==69.0.0

7. 可能出现问题2: ModuleNotFoundError: No module named '_distutils_hack'

Error processing line 1 of /home/chenqianyi/anaconda3/envs/pysyft/lib/python3.7/site-packages/distutils-precedence.pth:

Traceback (most recent call last):

File "/home/chenqianyi/anaconda3/envs/pysyft/lib/python3.7/site.py", line 168, in addpackage

exec(line)

File "", line 1, in

ModuleNotFoundError: No module named '_distutils_hack'

打开目录文件home/chenqianyi/anaconda3/envs/pysyft/lib/python3.7/site-packages/distutils-precedence.pth

在import os; 后换行

相关推荐
阿猿收手吧!1 天前
【大模型】什么是大模型?vLLM是?模型部署?CUDA?
ai·llama
AI大模型1 天前
开源大模型全维度详解+实操部署(Mistral-、Gemma(Google)、Llama、Qwen),小白必看
llm·agent·llama
不会吉他的肌肉男不是好的挨踢男1 天前
LLaMA Factory 训练模型未检测到CUDA环境解决
python·ai·llama
TGITCIC1 天前
LLM推理引擎选型实战指南:用Transformers、llama.cpp 还是 vLLM 之争
transformer·llama·ai大模型·vllm·llama.cpp·大模型ai
被制作时长两年半的个人练习生2 天前
如何调试llama.cpp及判断是否支持RVV
linux·服务器·llama
小镇cxy3 天前
小模型微调过程记录
ai·llama
CV-杨帆3 天前
复现 LLama Guard Llama-Prompt-Guard-2-86M / Llama-Prompt-Guard-2-22M
llama
学习是生活的调味剂3 天前
LLaMA大模型家族发展介绍
人工智能·llama
love530love3 天前
【笔记】解决 Stable Diffusion WebUI 启动 “找不到llama_cpp模块”
运维·windows·笔记·python·stable diffusion·github·llama
同学小张6 天前
【端侧AI 与 C++】1. llama.cpp源码编译与本地运行
开发语言·c++·aigc·llama·agi·ai-native