LLaMA-Factory(一)环境配置及包下载

LLaMA-Factory(一)环境配置及包下载

  • 本机配置
  • [1. git下载](#1. git下载)
  • 2.创建虚拟环境
  • [3. 下载官方包内依赖](#3. 下载官方包内依赖)
  • [4. 下载bitsandbytes](#4. 下载bitsandbytes)
  • [5. 启动项目](#5. 启动项目)
  • [6. 可能出现问题1:pip install 出现 error: subprocess-exited-with-error 错误](#6. 可能出现问题1:pip install 出现 error: subprocess-exited-with-error 错误)
  • [7. 可能出现问题2: ModuleNotFoundError: No module named '_distutils_hack'](#7. 可能出现问题2: ModuleNotFoundError: No module named ‘_distutils_hack‘)

本机配置

操作系统:Window11

CPU:AMD Ryzen 9 7945HX with Radeon Graphics 2.50 GHz

RAM:16.0 GB (15.7 GB 可用)

GPU: NVIDIA GeForce RTX 4060 Laptop GPU 8G

CUDA版本:12.6 (可以在PowerShell或CMD下输入 nvidia-smi 命令查看自己的CUDA版本)

1. git下载

GitHub链接:https://github.com/hiyouga/LLaMA-Factory

git链接:

bash 复制代码
git clone https://github.com/hiyouga/LLaMA-Factory.git

下载后解压压缩包

2.创建虚拟环境

需要提前下载Anaconda3或miniconda

创建虚拟环境

官方Readme推荐python版本3.11

bash 复制代码
conda create -n llm python=3.11 -y

激活环境

bash 复制代码
conda activate llm

3. 下载官方包内依赖

在项目目录下CMD打开命令行窗口或使用cd命令到对应目录

bash 复制代码
pip install -e ".[torch,metrics]"

4. 下载bitsandbytes

bash 复制代码
pip install bitsandbytes

bash 复制代码
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple bitsandbytes

5. 启动项目

设置环境变量打开项目

bash 复制代码
Set CUDA_VISIBLE_DEVICES=0
Set GRADIO_SHARE=1
llamafactory-cli webui

也可将打开项目命令替换为

bash 复制代码
python src/webui.py

在目录下运行webui.py (类似GPT-Sovits)

启动成功

6. 可能出现问题1:pip install 出现 error: subprocess-exited-with-error 错误

新建conda环境 setuptools可能有问题

bash 复制代码
pip uninstall setuptools
pip install setuptools==69.0.0

7. 可能出现问题2: ModuleNotFoundError: No module named '_distutils_hack'

Error processing line 1 of /home/chenqianyi/anaconda3/envs/pysyft/lib/python3.7/site-packages/distutils-precedence.pth:

Traceback (most recent call last):

File "/home/chenqianyi/anaconda3/envs/pysyft/lib/python3.7/site.py", line 168, in addpackage

exec(line)

File "", line 1, in

ModuleNotFoundError: No module named '_distutils_hack'

打开目录文件home/chenqianyi/anaconda3/envs/pysyft/lib/python3.7/site-packages/distutils-precedence.pth

在import os; 后换行

相关推荐
AI大模型..12 小时前
数据洞察加速器:LLM Copilot 如何让 SQL 查询效率提升 50% 以上?
人工智能·langchain·llm·agent·llama
l1t20 小时前
用llama试用gemma-4-E2B模型量化版本
人工智能·llama·gemma
Flying pigs~~20 小时前
主流大模型介绍(GPT、Llama、ChatGLM、Qwen、deepseek)
gpt·chatgpt·llm·llama·moe·deepseek·混合专家模式
小超同学你好20 小时前
Transformer 21. 从 LLaMA 到 Qwen:Rotary Position Embedding(RoPE)与 YaRN 一文读懂
语言模型·架构·transformer·llama
belldeep21 小时前
AI: llama.cpp 编译成功后,入门教程
python·ai·llama·llama-cpp
小驴程序源2 天前
【OpenClaw 完整安装实施教程(Windows + Ollama 本地模型)】
gpt·langchain·aigc·embedding·ai编程·llama·gpu算力
CHPCWWHSU2 天前
深入 llama.cpp:词汇表与分词——从文本到 Token (4)
人工智能·llm·llama·cpp·cudatoolkit
最贪吃的虎3 天前
我的第一个 RAG 程序:从 0 到 1,用 PDF 搭一个最小可运行的知识库问答系统
人工智能·python·算法·机器学习·aigc·embedding·llama
码农的神经元4 天前
从零实现 LLaMA 架构:一步步构建轻量级大语言模型
人工智能·语言模型·llama
chushiyunen4 天前
llama-index rag框架笔记
chrome·笔记·llama