VLLM部署

一、安装服务器

1、系统:Ubuntu 22.04.5

2、驱动:英伟达cuda 12.4

3、容器:docker ce26.x:

4、nvidia-container-toolkit:

操作 命令
查是否安装 `dpkg -l
查版本 nvidia-container-cli --version
端到端测试 docker run --rm --gpus all nvidia/cuda:12.4-base-ubuntu22.04 nvidia-smi
检查 Docker 配置 cat /etc/docker/daemon.json

5、链接国外的docke镜像:register Mirrors

bash 复制代码
vim /etc/docker/daemon.json
bash 复制代码
{
    "registry-mirrors": [
            "https://docker.211678.top",
            "https://docker.1panel.live",
            "https://hub.rat.dev",
            "https://docker.m.daocloud.io",
            "https://do.nark.eu.org",
            "https://dockerpull.com",
            "https://dockerproxy.cn",
            "https://docker.awsl9527.cn"
      ]
}

创建 docker 组(如果不存在)并添加用户:

bash 复制代码
sudo usermod -aG docker $USER

激活组权限:

你需要注销并重新登录,或者运行以下命令让更改立即生效(无需重启电脑)

bash 复制代码
newgrp docker

二、下面安装:VLLM:

bash 复制代码
docker pull vllm/vllm-openai:latest

可以参考:https://github.com/vllm-project/vllm

bash 复制代码
 mkdir -p /home/hynx/models/Qwen2.5-7B-Instruct

hynx@hynx:~$ cd /home/hynx/models/Qwen2.5-7B-Instruct


hynx@hynx:~$ python3 -c "from modelscope import snapshot_download; snapshot_download('Qwen/Qwen2.5-7B-Instruct', local_dir='.')"



docker run -d   --name vllm_qwen   --runtime nvidia   --gpus all   -p 8089:8089   -v /home/hynx/models/Qwen2.5-7B-Instruct:/app/model   vllm/vllm-openai:latest   --model /app/model   --host 0.0.0.0   --port 8089   --dtype auto   --max-model-len 4096
  1. qwen3.5的合适大模型9B,

创建一个清晰明确的目录

mkdir -p /home/hynx/models/Qwen3.5-9B

进入该目录

cd /home/hynx/models/Qwen3.5-9B

下载模型

python3 -c "from modelscope import snapshot_download; snapshot_download('Qwen/Qwen3.5-9B', local_dir='.')"

#利用docker 运行大模型

hynx@hynx:~$ docker run -d --name vllm_qwen3.59 --runtime nvidia --gpus all -p 8089:8089 -v /home/hynx/models/Qwen3.5-9B:/app/model vllm/vllm-openai:latest --model /app/model --host 0.0.0.0 --port 8089 --dtype auto --max-model-len 4096

验证大模型效果

curl http://localhost:8089/v1/completions \ -H "Content-Type: application/json" \ -d '{ "model": "/app/model", "prompt": "Hello, how are you?", "max_tokens": 20 }'

2.qwen3.5:122B

3.qwen3:8B embedding

  1. qwen3: 8B rerank

  2. minerU 模型

三、

相关推荐
AIDF20263 天前
我们看一份报告的时候主要看什么
运维·服务器·推理·vllm
张忠琳3 天前
【vllm】(八)vLLM v1 Simple KV Offload — 系统级架构深度分析之二
ai·架构·vllm
一只独角兽4 天前
DeepSeek-V4-Pro 部署实战指南:H100/H200/B200/B300/GB200/GB300 全硬件配置详解
自然语言处理·gru·transformer·vllm
张忠琳4 天前
【vllm】(六)vLLM v1 Sample — 模块超深度分析之一
ai·架构·vllm
蛐蛐蛐4 天前
在昇腾Atlas 300I Duo+openEuler上部署vLLM并进行推理的流程(一)
vllm
Anesthesia丶6 天前
Qwen2.5-1.5b 模型部署与LORA训练笔记
pytorch·python·lora·llm·qwen·vllm
张忠琳8 天前
【vllm】(五)vLLM v1 Attention — 模块超深度分析之五
ai·架构·vllm
张忠琳8 天前
【vllm】(五)vLLM v1 Attention — 模块超深度分析之二
人工智能·深度学习·ai·架构·vllm
Zzj_tju8 天前
大语言模型部署实战:从 Ollama、vLLM 到 SGLang,本地服务到底怎么搭?
人工智能·语言模型·自然语言处理·vllm
youzj09258 天前
vllm安装到dgx spark上
vllm