LLaMA-Factory(一)环境配置及包下载

LLaMA-Factory(一)环境配置及包下载

  • 本机配置
  • [1. git下载](#1. git下载)
  • 2.创建虚拟环境
  • [3. 下载官方包内依赖](#3. 下载官方包内依赖)
  • [4. 下载bitsandbytes](#4. 下载bitsandbytes)
  • [5. 启动项目](#5. 启动项目)
  • [6. 可能出现问题1:pip install 出现 error: subprocess-exited-with-error 错误](#6. 可能出现问题1:pip install 出现 error: subprocess-exited-with-error 错误)
  • [7. 可能出现问题2: ModuleNotFoundError: No module named '_distutils_hack'](#7. 可能出现问题2: ModuleNotFoundError: No module named ‘_distutils_hack‘)

本机配置

操作系统:Window11

CPU:AMD Ryzen 9 7945HX with Radeon Graphics 2.50 GHz

RAM:16.0 GB (15.7 GB 可用)

GPU: NVIDIA GeForce RTX 4060 Laptop GPU 8G

CUDA版本:12.6 (可以在PowerShell或CMD下输入 nvidia-smi 命令查看自己的CUDA版本)

1. git下载

GitHub链接:https://github.com/hiyouga/LLaMA-Factory

git链接:

bash 复制代码
git clone https://github.com/hiyouga/LLaMA-Factory.git

下载后解压压缩包

2.创建虚拟环境

需要提前下载Anaconda3或miniconda

创建虚拟环境

官方Readme推荐python版本3.11

bash 复制代码
conda create -n llm python=3.11 -y

激活环境

bash 复制代码
conda activate llm

3. 下载官方包内依赖

在项目目录下CMD打开命令行窗口或使用cd命令到对应目录

bash 复制代码
pip install -e ".[torch,metrics]"

4. 下载bitsandbytes

bash 复制代码
pip install bitsandbytes

bash 复制代码
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple bitsandbytes

5. 启动项目

设置环境变量打开项目

bash 复制代码
Set CUDA_VISIBLE_DEVICES=0
Set GRADIO_SHARE=1
llamafactory-cli webui

也可将打开项目命令替换为

bash 复制代码
python src/webui.py

在目录下运行webui.py (类似GPT-Sovits)

启动成功

6. 可能出现问题1:pip install 出现 error: subprocess-exited-with-error 错误

新建conda环境 setuptools可能有问题

bash 复制代码
pip uninstall setuptools
pip install setuptools==69.0.0

7. 可能出现问题2: ModuleNotFoundError: No module named '_distutils_hack'

Error processing line 1 of /home/chenqianyi/anaconda3/envs/pysyft/lib/python3.7/site-packages/distutils-precedence.pth:

Traceback (most recent call last):

File "/home/chenqianyi/anaconda3/envs/pysyft/lib/python3.7/site.py", line 168, in addpackage

exec(line)

File "", line 1, in

ModuleNotFoundError: No module named '_distutils_hack'

打开目录文件home/chenqianyi/anaconda3/envs/pysyft/lib/python3.7/site-packages/distutils-precedence.pth

在import os; 后换行

相关推荐
共绩算力2 小时前
Llama 4 Maverick Scout 多模态MoE新里程碑
人工智能·llama·共绩算力
yanzhilv1 天前
Ollama + Open WebUI
llama
喜欢吃豆3 天前
掌握本地化大语言模型部署:llama.cpp 工作流与 GGUF 转换内核全面技术指南
人工智能·语言模型·架构·大模型·llama·llama.cpp·gguf
illuspas5 天前
Ubuntu 24.04下编译支持ROCm加速的llama.cpp
linux·ubuntu·llama
缘友一世7 天前
LLama3架构原理浅浅学学
人工智能·自然语言处理·nlp·transformer·llama
我们没有完整的家8 天前
批量吞吐量实测:Llama-2-7b 昇腾 NPU 六大场景数据报告
llama
asfdsfgas8 天前
从加载到推理:Llama-2-7b 昇腾 NPU 全流程性能基准
人工智能·llama
asdfsdgss9 天前
FP16 vs INT8:Llama-2-7b 昇腾 NPU 精度性能基准报告
llama
猿代码_xiao9 天前
大模型微调完整步骤( LLama-Factory)
人工智能·深度学习·自然语言处理·chatgpt·llama·集成学习
wei_shuo11 天前
Llama-2-7b 昇腾 NPU 测评总结:核心性能数据、场景适配建议与硬件选型参考
大模型·llama·昇腾