vllm 部署验证

我的Notebook · 魔搭社区

1、在魔塔社区 我的NoteBook 创建

2、查看python3版本

root@dsw-1587650-85987c5ff6-92cls:/mnt/workspace# python3 --version

Python 3.11.11

3、检查 NVIDIA GPU 是否可见

nvidia-smi

Mon Jan 5 17:19:17 2026

+-----------------------------------------------------------------------------------------+

| NVIDIA-SMI 550.54.15 Driver Version: 550.54.15 CUDA Version: 12.4 |

|-----------------------------------------+------------------------+----------------------+

| GPU Name Persistence-M | Bus-Id Disp.A | Volatile Uncorr. ECC |

| Fan Temp Perf Pwr:Usage/Cap | Memory-Usage | GPU-Util Compute M. |

| | | MIG M. |

|=========================================+========================+======================|

| 0 NVIDIA A10 Off | 00000000:00:07.0 Off | Off |

| 0% 30C P8 20W / 150W | 0MiB / 24564MiB | 0% Default |

| | | N/A |

+-----------------------------------------+------------------------+----------------------+

+-----------------------------------------------------------------------------------------+

| Processes: |

| GPU GI CI PID Type Process name GPU Memory |

| ID ID Usage |

|=========================================================================================|

| No running processes found |

+-----------------------------------------------------------------------------------------+

NVIDIA A10 是 Ampere 架构,支持 FP16、INT8、Tensor Core,vLLM 的 PagedAttention 能充分发挥其性能。

3、docker 版本

你是在 魔搭(ModelScope)社区申请的 Notebook(即阿里云 PAI-DSW 实例),这类环境有以下特点:


✅ 你的环境现状(基于你之前的输出)

  • 用户:root(拥有高权限)
  • Python:3.11.11(✅ 兼容 vLLM)
  • GPU:NVIDIA A10 24GB(✅ 非常适合运行 LLM)
  • 已能运行 nvidia-smi(✅ 驱动正常)

阿里云 PAI-DSW 实例本身不支持在容器内再次运行 Docker(即不支持嵌套虚拟化)。以下是关键说明:

  1. 容器化设计‌:DSW 实例基于容器技术实现,其运行环境本身是容器化的,因此不支持在容器内安装和使用 Docker。

  2. 替代方案‌:

    • 使用 ECS 部署‌:如果应用强依赖 Docker,建议使用阿里云 ECS 云服务器来部署。
    • 制作自定义镜像‌:可以通过 DSW 实例制作自定义镜像并保存到阿里云容器镜像服务(ACR),然后在其他服务(如 PAI- DLC 或 PAI-EAS)中使用。
    • 使用 Docker 镜像启动实例‌:可将 Docker 镜像推送到 ACR,然后在创建 DSW 实例时选择该镜像。
  3. 注意事项‌:

    • DSW 实例不支持在运行时安装 Docker(如通过 apt-get 命令)。
    • 若需使用特定 Docker 环境,应在创建 DSW 实例时选择支持 Docker 的实例类型(如 Lingjun 资源)。

总结:DSW 实例不支持 Docker 嵌套运行,但可通过制作自定义镜像或使用 ECS 替代实现 Docker 环境。

改用:阿里云弹性加速计算EAIS


root@eais-bjyut84k3r9ns75m8kvm-0:/mnt/workspace# python --version

Python 3.11.11

root@eais-bjyut84k3r9ns75m8kvm-0:/mnt/workspace# nvidia-smi

Tue Jan 6 09:59:51 2026

+-----------------------------------------------------------------------------+

| NVIDIA-SMI 470.161.03 Driver Version: 470.161.03 CUDA Version: 12.1 |

|-------------------------------+----------------------+----------------------+

| GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC |

| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |

| | | MIG M. |

|===============================+======================+======================|

| 0 Tesla P100-PCIE... On | 00000000:00:08.0 Off | Off |

| N/A 32C P0 26W / 250W | 0MiB / 16280MiB | 0% Default |

| | | N/A |

+-------------------------------+----------------------+----------------------+

+-----------------------------------------------------------------------------+

| Processes: |

| GPU GI CI PID Type Process name GPU Memory |

| ID ID Usage |

|=============================================================================|

| No running processes found |

+-----------------------------------------------------------------------------+

root@eais-bjyut84k3r9ns75m8kvm-0:/mnt/workspace#

  • GPU 型号 :Tesla P100-PCIE(即 P100 PCIe 版本
  • 显存容量16280 MiB ≈ 16 GB
  • CUDA 版本:12.1(驱动支持)
  • 当前显存使用:0 MiB(空闲)

参考: vLLM+Qwen3+OpenWebUI保姆级教程!搭建属于你的智能助手

本地部署大模型,其实很简单:只需三步!

  1. 下载模型

  2. 选择推理引擎

  3. 启动服务

vLLM[1] 是一个高效、易用的大型语言模型(LLM)推理与服务框架,最初由加州大学伯克利分校的 Sky 计算实验室[2] 开发,现已成为由学术界与工业界共同维护的开源社区项目。

vLLM 的核心优势在于其卓越的性能和广泛的兼容性:

🚀 为什么 vLLM 推理速度如此出众?

PagedAttention 技术:通过分页管理注意力机制中的键值缓存,极大提升了内存使用效率,有效降低延迟。

优化的 CUDA 内核:集成了 FlashAttention 和 FlashInfer 等高效计算技术,显著提升推理吞吐量。

高吞吐量解码算法:支持多种解码策略,如并行采样、束搜索(Beam Search)等,灵活适应不同场景。

🎯 为什么 vLLM 被广泛使用?

与 HuggingFace 模型无缝集成:无需额外转换,直接加载主流模型。

兼容 OpenAI API 接口:方便开发者快速迁移或集成已有项目。

支持 Prefix Caching(前缀缓存)与 Multi-LoRA:显著提升服务响应速度与多模型并发能力。

一、Huggingface下载模型

安装包Huggingface

pip install -U huggingface_hub

添加环境变量

export HF_ENDPOINT=https://hf-mirror.com

创建目录 /mnt/workspace/models_hf/Qwen

export HF_ENDPOINT=https://hf-mirror.com

hf download Qwen/Qwen2.5-7B-Instruct-AWQ --local-dir /mnt/workspace/models_hf/Qwen/

pip install "huggingface_hub>=0.34.0,<1.0" --force-reinstall --no-cache-dir

上面的流程不好使 。。 模型无法访问


改用魔塔社区的模型地址:

https://modelscope.cn/models/qwen/Qwen2.5-7B-Instruct/summary
https://modelscope.cn/models/qwen/Qwen2.5-7B-Instruct-AWQ/summary

安装 modelscope

pip install modelscope

下载官方 AWQ 4-bit 量化版(推荐!仅 ~6GB)

modelscope download --model qwen/Qwen2.5-7B-Instruct-AWQ --revision master

原版 FP16 无法在 16GB P100 上推理,请优先使用 -AWQ 版本

下载后的目录地址:


要用pip install 安装vllm

pip install vllm -U

启动命令:

python -m vllm.entrypoints.openai.api_server --model /mnt/workspace/.cache/modelscope/hub/models/qwen/Qwen2.5-7B-Instruct-AWQ --quantization awq --dtype auto --port 8000 --host 0.0.0.0 --tensor-parallel-size 1 --gpu-memory-utilization 0.95 --max-model-len 32768 --max-num-seqs 256

报错了

python -c "import torch; print(torch.version); print('CUDA:', torch.version.cuda); print('Available:', torch.cuda.is_available());print(torch.cuda.get_device_name(0))"

2.9.0+cu128

CUDA: 12.8

Available: True

相关推荐
ouliten21 小时前
vllm笔记(1):最基础的离线推理
笔记·vllm·模型推理
越努力越幸运~1 天前
AMD AI MAX +395迷你主机 架构1151安装 vllm部署大模型操作记录
ai·vllm·rocm·ai max+395
Lkygo1 天前
Embedding 和 Reranker 模型
人工智能·embedding·vllm·sglang
CodeCaptain2 天前
通过huggingface的hf download下载的Qwen模型,如何使用用Docker 启动 vLLM 服务
docker·ai·vllm
不错就是对3 天前
【agent-lightning】 - 2_使用 Agent-lightning 训练第一个智能体
人工智能·深度学习·神经网络·自然语言处理·chatgpt·transformer·vllm
技术狂人1683 天前
(七)大模型工程落地与部署 10 题!vLLM/QPS 优化 / 高可用,面试实战必备(工程篇)
人工智能·深度学习·面试·职场和发展·vllm
喜欢猪猪4 天前
深度解析 vLLM:高性能大语言模型推理引擎的架构、原理与工程实践
语言模型·架构·vllm
是Yu欸6 天前
vLLM 0.11.0 新特性解析:视觉推理精度跃升与长序列性能革新
数据库·qwen·昇腾·npu·vllm
2501_930799246 天前
vllm部署时的nginx 配置
运维·nginx·vllm