VLLM部署

一、安装服务器

1、系统:Ubuntu 22.04.5

2、驱动:英伟达cuda 12.4

3、容器:docker ce26.x:

4、nvidia-container-toolkit:

操作 命令
查是否安装 `dpkg -l
查版本 nvidia-container-cli --version
端到端测试 docker run --rm --gpus all nvidia/cuda:12.4-base-ubuntu22.04 nvidia-smi
检查 Docker 配置 cat /etc/docker/daemon.json

5、链接国外的docke镜像:register Mirrors

bash 复制代码
vim /etc/docker/daemon.json
bash 复制代码
{
    "registry-mirrors": [
            "https://docker.211678.top",
            "https://docker.1panel.live",
            "https://hub.rat.dev",
            "https://docker.m.daocloud.io",
            "https://do.nark.eu.org",
            "https://dockerpull.com",
            "https://dockerproxy.cn",
            "https://docker.awsl9527.cn"
      ]
}

创建 docker 组(如果不存在)并添加用户:

bash 复制代码
sudo usermod -aG docker $USER

激活组权限:

你需要注销并重新登录,或者运行以下命令让更改立即生效(无需重启电脑)

bash 复制代码
newgrp docker

二、下面安装:VLLM:

bash 复制代码
docker pull vllm/vllm-openai:latest

可以参考:https://github.com/vllm-project/vllm

bash 复制代码
 mkdir -p /home/hynx/models/Qwen2.5-7B-Instruct

hynx@hynx:~$ cd /home/hynx/models/Qwen2.5-7B-Instruct


hynx@hynx:~$ python3 -c "from modelscope import snapshot_download; snapshot_download('Qwen/Qwen2.5-7B-Instruct', local_dir='.')"



docker run -d   --name vllm_qwen   --runtime nvidia   --gpus all   -p 8089:8089   -v /home/hynx/models/Qwen2.5-7B-Instruct:/app/model   vllm/vllm-openai:latest   --model /app/model   --host 0.0.0.0   --port 8089   --dtype auto   --max-model-len 4096
  1. qwen3.5的合适大模型9B,

创建一个清晰明确的目录

mkdir -p /home/hynx/models/Qwen3.5-9B

进入该目录

cd /home/hynx/models/Qwen3.5-9B

下载模型

python3 -c "from modelscope import snapshot_download; snapshot_download('Qwen/Qwen3.5-9B', local_dir='.')"

#利用docker 运行大模型

hynx@hynx:~$ docker run -d --name vllm_qwen3.59 --runtime nvidia --gpus all -p 8089:8089 -v /home/hynx/models/Qwen3.5-9B:/app/model vllm/vllm-openai:latest --model /app/model --host 0.0.0.0 --port 8089 --dtype auto --max-model-len 4096

验证大模型效果

curl http://localhost:8089/v1/completions \ -H "Content-Type: application/json" \ -d '{ "model": "/app/model", "prompt": "Hello, how are you?", "max_tokens": 20 }'

2.qwen3.5:122B

3.qwen3:8B embedding

  1. qwen3: 8B rerank

  2. minerU 模型

三、

相关推荐
翱翔的苍鹰4 小时前
通过LangChain Agent模拟实现美团外卖下单场景
人工智能·深度学习·语言模型·自然语言处理·langchain·vllm
susu10830189112 天前
LiteLLM + vLLM模型调用引擎架构
vllm
爱听歌的周童鞋2 天前
Nano-vLLM深度解读(上)
llm·vllm·scheduler·inference·nano-vllm·block manager
AI成长日志5 天前
【vLLM专栏】vLLM项目全景与快速开始
vllm
式5166 天前
VLLM架构学习(一)VLLM是什么、VLLM的原理
学习·vllm
love530love6 天前
OpenClaw搭配LM Studio VS Ollama:Windows CUDA实战深度对比与完全配置指南
人工智能·windows·vllm·ollama·llama.cpp·lm studio·openclaw
seaside20036 天前
docker 部署vllm 实现Qwen 3.5 2B 模型推理
大模型·vllm
TLY-101-0107 天前
工作日记:在win11上开启WSL安装ubuntu,使用VLLM运行ASR模型
linux·ubuntu·ai·vllm
dragonchow1238 天前
openclaw vllm 20260312
vllm·openclaw