Ubuntu 22.04完整安装Xinference及解决依赖报错

注:文中使用的环境为Ubuntu 22.04 LTS + CUDA 12.4.1

1、创建conda环境

shell 复制代码
conda create -n xinference python==3.11 -y
conda activate xinference

2、安装Xinference

shell 复制代码
pip install "xinference[all]"

3、解决报错

Pytorch报错

根据Pytorch安装指引进行安装,重新执行命令即可。注意,一定要在Pytorch网站上按照你的系统和CUDA版本等选择。使用pip即可。例:

shell 复制代码
pip3 install torch torchvision torchaudio
pip install "xinference[all]"

llama-cpp-python报错

当报错ERROR: Failed building wheel for llama-cpp-python时,需要手动修补环境并重新安装llama-cpp-python。这个问题比较复杂。按步骤操作即可修复:

  • 修复构建工具链

    shell 复制代码
    sudo add-apt-repository ppa:ubuntu-toolchain-r/test
    sudo apt update
    sudo apt install gcc-11 g++-11
    sudo update-alternatives --install /usr/bin/gcc gcc /usr/bin/gcc-11 60 --slave /usr/bin/g++ g++ /usr/bin/g++-11
    pip install --upgrade pip
    pip install --upgrade setuptools wheel
    sudo apt-get install build-essential
    sudo apt-get install libgomp1
  • 检查并更新环境变量

    shell 复制代码
    export PATH=/usr/local/cuda-12.4/bin:$PATH
    export LD_LIBRARY_PATH=/usr/local/cuda-12.4/lib64:/usr/local/cuda-12.4/extras/CUPTI/lib64:/usr/local/cuda-12.4/targets/x86_64-linux/lib:/usr/lib/x86_64-linux-gnu:$LD_LIBRARY_PATH
  • 重新安装

    shell 复制代码
    # CPU推理
    pip install llama-cpp-python --verbose
    # N卡推理
    CMAKE_ARGS="-DLLAMA_CUBLAS=on" FORCE_CMAKE=1 pip install --upgrade --force-reinstall llama-cpp-python==0.2.57 --no-cache-dir --verbose
    pip install "xinference[all]"
相关推荐
哥不是小萝莉6 小时前
OpenClaw 架构设计全解析
ai
十日十行7 小时前
Linux和window共享文件夹
linux
warm3snow9 小时前
Claude Code 黑客马拉松:5 个获奖项目,没有一个是"纯码农"做的
ai·大模型·llm·agent·skill·mcp
Ray Liang10 小时前
被低估的量化版模型,小身材也能干大事
人工智能·ai·ai助手·mindx
代码匠心12 小时前
AI 自动编程:一句话设计高颜值博客
前端·ai·ai编程·claude
木心月转码ing15 小时前
WSL+Cpp开发环境配置
linux
JavaGuide1 天前
Claude Opus 4.6 真的用不起了!我换成了国产 M2.5,实测真香!!
java·spring·ai·claude code
Swizard1 天前
逐行解剖:扒开 Lovable Agent 源码,看顶级 AI 是如何“思考”与“动刀”的
ai·prompt
warm3snow1 天前
AI 核心技能系列:12 篇文章带你系统掌握大模型岗位必备技能
ai·transformer·agent·skill·mcp·fine-tunning
曲幽2 天前
FastAPI + Ollama 实战:搭一个能查天气的AI助手
python·ai·lora·torch·fastapi·web·model·ollama·weatherapi