LLaMA-Factory(一)环境配置及包下载

LLaMA-Factory(一)环境配置及包下载

  • 本机配置
  • [1. git下载](#1. git下载)
  • 2.创建虚拟环境
  • [3. 下载官方包内依赖](#3. 下载官方包内依赖)
  • [4. 下载bitsandbytes](#4. 下载bitsandbytes)
  • [5. 启动项目](#5. 启动项目)
  • [6. 可能出现问题1:pip install 出现 error: subprocess-exited-with-error 错误](#6. 可能出现问题1:pip install 出现 error: subprocess-exited-with-error 错误)
  • [7. 可能出现问题2: ModuleNotFoundError: No module named '_distutils_hack'](#7. 可能出现问题2: ModuleNotFoundError: No module named ‘_distutils_hack‘)

本机配置

操作系统:Window11

CPU:AMD Ryzen 9 7945HX with Radeon Graphics 2.50 GHz

RAM:16.0 GB (15.7 GB 可用)

GPU: NVIDIA GeForce RTX 4060 Laptop GPU 8G

CUDA版本:12.6 (可以在PowerShell或CMD下输入 nvidia-smi 命令查看自己的CUDA版本)

1. git下载

GitHub链接:https://github.com/hiyouga/LLaMA-Factory

git链接:

bash 复制代码
git clone https://github.com/hiyouga/LLaMA-Factory.git

下载后解压压缩包

2.创建虚拟环境

需要提前下载Anaconda3或miniconda

创建虚拟环境

官方Readme推荐python版本3.11

bash 复制代码
conda create -n llm python=3.11 -y

激活环境

bash 复制代码
conda activate llm

3. 下载官方包内依赖

在项目目录下CMD打开命令行窗口或使用cd命令到对应目录

bash 复制代码
pip install -e ".[torch,metrics]"

4. 下载bitsandbytes

bash 复制代码
pip install bitsandbytes

bash 复制代码
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple bitsandbytes

5. 启动项目

设置环境变量打开项目

bash 复制代码
Set CUDA_VISIBLE_DEVICES=0
Set GRADIO_SHARE=1
llamafactory-cli webui

也可将打开项目命令替换为

bash 复制代码
python src/webui.py

在目录下运行webui.py (类似GPT-Sovits)

启动成功

6. 可能出现问题1:pip install 出现 error: subprocess-exited-with-error 错误

新建conda环境 setuptools可能有问题

bash 复制代码
pip uninstall setuptools
pip install setuptools==69.0.0

7. 可能出现问题2: ModuleNotFoundError: No module named '_distutils_hack'

Error processing line 1 of /home/chenqianyi/anaconda3/envs/pysyft/lib/python3.7/site-packages/distutils-precedence.pth:

Traceback (most recent call last):

File "/home/chenqianyi/anaconda3/envs/pysyft/lib/python3.7/site.py", line 168, in addpackage

exec(line)

File "", line 1, in

ModuleNotFoundError: No module named '_distutils_hack'

打开目录文件home/chenqianyi/anaconda3/envs/pysyft/lib/python3.7/site-packages/distutils-precedence.pth

在import os; 后换行

相关推荐
feasibility.1 小时前
多模态模型Qwen3-VL在Llama-Factory中断LoRA微调训练+测试+导出+部署全流程--以具身智能数据集open-eqa为例
人工智能·python·大模型·nlp·llama·多模态·具身智能
问道飞鱼7 小时前
【大模型知识】Chroma + Ollama + Llama 3.1 搭建本地知识库
llama·知识库·chroma·ollama
凉忆-9 小时前
llama-factory训练大模型
python·pip·llama
zhangfeng11331 天前
大模型微调时 Firefly(流萤)和 LlamaFactory(LLaMA Factory)这两个工具/框架之间做出合适的选择
人工智能·llama
love530love1 天前
技术复盘:llama-cpp-python CUDA 编译实战 (Windows)
人工智能·windows·python·llama·aitechlab·cpp-python·cuda版本
玄同7651 天前
Llama.cpp 全实战指南:跨平台部署本地大模型的零门槛方案
人工智能·语言模型·自然语言处理·langchain·交互·llama·ollama
zhangfeng11331 天前
大模型微调主要框架 Firefly vs LLaMA Factory 全方位对比表
人工智能·语言模型·开源·llama
zhangfeng11332 天前
LLaMA Factory 完全支自定义词库(包括自定义微调数据集、自定义领域词汇/词表)
人工智能·llama
小毅&Nora2 天前
【人工智能】【大模型】从厨房到实验室:解密LLaMA架构如何重塑大模型世界
人工智能·架构·llama
kimi-2223 天前
LLaMA Factory: 一站式大模型高效微调平台
llama