DeepSeek容器化部署(vLLM+Open WebUI)魔搭模型版

一、环境准备

前提:服务器已安装NVIDIA GPU驱动,系统为Ubuntu 20.04。

1. 安装Docker

bash 复制代码
curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /usr/share/keyrings/docker-archive-keyring.gpg
echo "deb [arch=$(dpkg --print-architecture) signed-by=/usr/share/keyrings/docker-archive-keyring.gpg] https://download.docker.com/linux/ubuntu focal stable" | sudo tee /etc/apt/sources.list.d/docker.list > /dev/null
apt update
apt install -y docker-ce docker-ce-cli containerd.io
systemctl start docker
systemctl enable docker

2. 安装NVIDIA-Docker

bash 复制代码
distribution=$(. /etc/os-release;echo $ID$VERSION_ID)
curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add -
curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | sudo tee /etc/apt/sources.list.d/nvidia-docker.list
apt-get update
apt-get install -y nvidia-docker2
systemctl restart docker

二、魔搭社区下载模型(ModelScope)

1. 安装ModelScope工具

bash 复制代码
pip install modelscope

2. 下载Qwen3-8B模型(自定义路径)

bash 复制代码
modelscope download --model Qwen/Qwen3-8B --local_dir /hy-tmp/models/deepseek/

模型将保存到:/hy-tmp/models/deepseek/,后续容器直接挂载此路径。


三、拉取Docker镜像

bash 复制代码
# 拉取Open WebUI(CUDA版)
docker pull ghcr.io/open-webui/open-webui:cuda
# 拉取vLLM推理镜像
docker pull vllm/vllm-openai

四、启动vLLM容器(挂载魔搭模型)

bash 复制代码
docker run -d \
 --gpus all \
 --restart unless-stopped \
 --name deepseek-container \
 --network host \
 -v /hy-tmp/models/deepseek:/model \
 vllm/vllm-openai:latest \
 --model /model \
 --served-model-name qwen3-8b \
 --dtype half \
 --api-key OPENWEBUI123

关键说明:

  • -v /hy-tmp/models/deepseek:/model:挂载魔搭下载的模型路径
  • --served-model-name qwen3-8b:自定义服务模型名
  • --api-key OPENWEBUI123:接口密钥(WebUI需保持一致)

五、启动Open WebUI容器

bash 复制代码
docker run -d \
 --name openwebui-container \
 --network host \
 --gpus all \
 -e OPENAI_API_BASE_URL=http://localhost:8000/v1 \
 -e OPENAI_API_KEYS=OPENWEBUI123 \
 -e USE_CUDA_DOCKER=true \
 ghcr.io/open-webui/open-webui:cuda

六、验证与访问

  1. 检查容器状态:
bash 复制代码
docker ps
  1. 浏览器访问Open WebUI:

    http://服务器IP:8080

  2. 首次访问创建管理员账号,即可选择qwen3-8b模型对话。


七、常见参数说明

参数 作用
--gpus all 容器调用全部GPU
--network host 复用主机网络,端口直通
-v 本地路径:容器路径 模型目录挂载
--dtype half FP16精度,降低显存占用
--api-key 接口鉴权密钥
相关推荐
做个文艺程序员1 天前
vLLM 部署大模型推理服务完全教程:吞吐量是 Ollama 的 10 倍,生产环境首选
vllm·vllm教程
liuyunshengsir2 天前
LMCache + vLLM 部署指南(以 Qwen3-0.6B 为例)
vllm
诸葛老刘2 天前
在PC机上 使用docker vLLM镜像部署Qwen3-1.7B
docker·vllm
Soonyang Zhang3 天前
vllm分析(二)——http request的入口处理
人工智能·vllm·推理框架
xyhshen3 天前
如何两台atlas-a2服务器物理机,基于vllm-ascend部署qwen3.5 397b-w8a8-mtp大模型
vllm
zadyd3 天前
vLLM Linux 双卡部署大模型服务器指南
linux·人工智能·python·机器学习·vllm
是Dream呀10 天前
从零到一:Triton实现CELU激活函数优化之路
ai·vllm·openclaw
花间相见11 天前
【大模型推理01】—— 初探VLLM:高性能LLM推理引擎,让开源模型跑起来更快更省
开源·vllm
Flying pigs~~11 天前
大模型训练框架 ➕ 推理部署框架
模型训练·deepspeed·vllm·模型推理·zero·pageattention