ubuntu 安装 vllm

在 Ubuntu 系统上使用 uv 安装 vllm 可以分为几个步骤。uv 是一个极其快速的 Python 包安装器和解析器,由 Astral 公司(Ruff 的创建者)开发,非常适合用来安装像 vllm 这样依赖复杂的项目。

以下是详细步骤:

步骤 1:更新系统包索引(推荐)

首先,确保你的 Ubuntu 系统是最新的。

bash 复制代码
sudo apt update && sudo apt upgrade -y

步骤 2:安装 uv

你可以使用官方的安装脚本来安装 uv,这是最方便的方法。

bash 复制代码
curl -LsSf https://astral.sh/uv/install.sh | sh

安装完成后,按照提示将 uv 添加到你的 PATH 中。通常需要重新启动终端或执行以下命令:

bash 复制代码
source ~/.bashrc
# 或者如果你使用 zsh
source ~/.zshrc

验证 uv 是否安装成功:

bash 复制代码
uv --version

步骤 3:使用 uv 创建虚拟环境并安装 vllm

uv 的核心功能是管理环境和安装包。我们将使用它创建一个新的虚拟环境并在其中安装 vllm

  1. 创建项目目录并进入 (可选,但推荐)

    这有助于保持环境隔离。

    bash 复制代码
    mkdir vllm-project && cd vllm-project
  2. 初始化虚拟环境并安装 vllm

    使用 uv init 命令可以一步完成创建虚拟环境、生成 pyproject.toml 并安装包。

    bash 复制代码
    uv init . --python 3.11
    uv add vllm
    • uv init . 在当前目录初始化一个项目。
    • --python 3.11 指定 Python 版本(vllm 强烈推荐使用 Python 3.9-3.11)。
    • uv add vllmvllm 包添加到依赖项并安装。

或者,使用更传统的流程:

bash 复制代码
# 1. 创建虚拟环境,命名为 .venv
uv venv .venv
# 2. 激活虚拟环境
source .venv/bin/activate
# 3. 使用 uv pip 安装 vllm (速度远超传统 pip)
uv pip install vllm

步骤 4:安装 vllm 的可选依赖(CUDA)

vllm 是一个 GPU 密集型库,需要 CUDA。uv 在安装 vllm 时会自动处理其 Python 依赖(如 torch),但系统级的 CUDA 驱动和工具包需要你自己安装。

  1. 检查 NVIDIA 驱动是否已安装

    bash 复制代码
    nvidia-smi

    如果这个命令输出了 GPU 信息,说明驱动已安装。如果没有,你需要先安装 NVIDIA 驱动。

  2. 安装 CUDA Toolkit(如果需要)
    vllm 通常与 CUDA 12.1 兼容性最好。推荐使用 apt 安装:

    bash 复制代码
    # 首先添加 NVIDIA 包仓库
    distribution=$(. /etc/os-release;echo $ID$VERSION_ID | sed -e 's/\.//g')
    wget https://developer.download.nvidia.com/compute/cuda/repos/$distribution/x86_64/cuda-keyring_1.1-1_all.deb
    sudo dpkg -i cuda-keyring_1.0-1_all.deb
    sudo apt update
    
    # 安装 CUDA Toolkit 12.1
    sudo apt install -y cuda-toolkit-12-1

    安装完成后,可能需要设置环境变量(通常添加到 ~/.bashrc 中):

    bash 复制代码
    echo 'export PATH=/usr/local/cuda-12.1/bin:$PATH' >> ~/.bashrc
    echo 'export LD_LIBRARY_PATH=/usr/local/cuda-12.1/lib64:$LD_LIBRARY_PATH' >> ~/.bashrc
    source ~/.bashrc

步骤 5:验证安装

创建一个简单的 Python 脚本或直接在激活的虚拟环境中启动 Python 解释器来测试 vllm 是否安装成功。

bash 复制代码
source .venv/bin/activate # 如果尚未激活
python -c "import vllm; print('vllm 安装成功!'); print(f'版本: {vllm.__version__}')"

如果一切顺利,你将看到成功的导入信息和版本号。


常见问题与解决 (Troubleshooting)

  1. Could not find version that satisfies the requirement vllm:

    • 确保你的网络连接正常,uv 可以访问 PyPI。
  2. CUDA version is insufficient 或其他 CUDA 相关错误:

    • 运行 nvidia-sminvcc --version 检查你的驱动和 CUDA 版本。确保你安装的是 CUDA 12.1 或更高版本。

    • 有时 vllm 需要特定版本的 torch。可以尝试强制重新安装与 CUDA 匹配的 PyTorch:

      bash 复制代码
      uv pip install --force-reinstall torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121

      然后再重新安装 vllmuv pip install vllm

  3. 性能问题或运行时错误:

    • 确保你是在虚拟环境中操作,并且没有多个版本的 torch 冲突。
    • 查阅 vllm 的官方文档:https://docs.vllm.ai

总结

使用 uv 在 Ubuntu 上安装 vllm 的流程可以简化为:

  1. curl -LsSf https://astral.sh/uv/install.sh | sh 安装 uv
  2. uv venv .venv && source .venv/bin/activate 创建并激活虚拟环境。
  3. uv pip install vllm 使用超快的 uv pip 安装 vllm
  4. 确保系统已正确安装 NVIDIA 驱动CUDA 12.1+ Toolkit

uv 极大地简化了 Python 依赖管理的复杂度,并提供了飞快的安装速度,是管理像 vllm 这样大型项目的优秀工具。

相关推荐
空灵之海3 小时前
Docker部署Nexus Repository Community Edition
运维·docker·容器
aramae3 小时前
Linux开发工具入门:零基础到熟练使用(二)
linux·运维·服务器·网络·笔记
nassi_3 小时前
I/O详解
linux·php
咖啡教室4 小时前
程序员应该掌握的网络命令telnet、ping和curl
运维·后端
泡沫冰@4 小时前
shell编程:sed - 流编辑器(6)
linux
爱吃喵的鲤鱼4 小时前
仿muduo库One Thread One Loop主从Reactor模型实践——介绍
linux·c++
庄风子4 小时前
In VI, when an arrow key is pressed, a character (e.g. “A“) is sent.
linux·vi
优秘智能UMI4 小时前
UMI企业智脑智能营销:多平台视频矩阵引领营销新潮流
大数据·运维·人工智能·ai·矩阵·aigc
荣光波比5 小时前
ZooKeeper与Kafka分布式协调系统实战指南:从基础原理到集群部署
运维·分布式·zookeeper·kafka·云计算
三坛海会大神5555 小时前
ELK分析系统详解
运维·elk