DeepSeek容器化部署(vLLM+Open WebUI)魔搭模型版

一、环境准备

前提:服务器已安装NVIDIA GPU驱动,系统为Ubuntu 20.04。

1. 安装Docker

bash 复制代码
curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /usr/share/keyrings/docker-archive-keyring.gpg
echo "deb [arch=$(dpkg --print-architecture) signed-by=/usr/share/keyrings/docker-archive-keyring.gpg] https://download.docker.com/linux/ubuntu focal stable" | sudo tee /etc/apt/sources.list.d/docker.list > /dev/null
apt update
apt install -y docker-ce docker-ce-cli containerd.io
systemctl start docker
systemctl enable docker

2. 安装NVIDIA-Docker

bash 复制代码
distribution=$(. /etc/os-release;echo $ID$VERSION_ID)
curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add -
curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | sudo tee /etc/apt/sources.list.d/nvidia-docker.list
apt-get update
apt-get install -y nvidia-docker2
systemctl restart docker

二、魔搭社区下载模型(ModelScope)

1. 安装ModelScope工具

bash 复制代码
pip install modelscope

2. 下载Qwen3-8B模型(自定义路径)

bash 复制代码
modelscope download --model Qwen/Qwen3-8B --local_dir /hy-tmp/models/deepseek/

模型将保存到:/hy-tmp/models/deepseek/,后续容器直接挂载此路径。


三、拉取Docker镜像

bash 复制代码
# 拉取Open WebUI(CUDA版)
docker pull ghcr.io/open-webui/open-webui:cuda
# 拉取vLLM推理镜像
docker pull vllm/vllm-openai

四、启动vLLM容器(挂载魔搭模型)

bash 复制代码
docker run -d \
 --gpus all \
 --restart unless-stopped \
 --name deepseek-container \
 --network host \
 -v /hy-tmp/models/deepseek:/model \
 vllm/vllm-openai:latest \
 --model /model \
 --served-model-name qwen3-8b \
 --dtype half \
 --api-key OPENWEBUI123

关键说明:

  • -v /hy-tmp/models/deepseek:/model:挂载魔搭下载的模型路径
  • --served-model-name qwen3-8b:自定义服务模型名
  • --api-key OPENWEBUI123:接口密钥(WebUI需保持一致)

五、启动Open WebUI容器

bash 复制代码
docker run -d \
 --name openwebui-container \
 --network host \
 --gpus all \
 -e OPENAI_API_BASE_URL=http://localhost:8000/v1 \
 -e OPENAI_API_KEYS=OPENWEBUI123 \
 -e USE_CUDA_DOCKER=true \
 ghcr.io/open-webui/open-webui:cuda

六、验证与访问

  1. 检查容器状态:
bash 复制代码
docker ps
  1. 浏览器访问Open WebUI:

    http://服务器IP:8080

  2. 首次访问创建管理员账号,即可选择qwen3-8b模型对话。


七、常见参数说明

参数 作用
--gpus all 容器调用全部GPU
--network host 复用主机网络,端口直通
-v 本地路径:容器路径 模型目录挂载
--dtype half FP16精度,降低显存占用
--api-key 接口鉴权密钥
相关推荐
执笔论英雄3 天前
【vllm 】WorkerProc WorkerWrapperBase GPU worker之间的关系
vllm
hongyuyahei3 天前
绝对/相对位置编码
vllm
d1z8884 天前
(十七)32天GPU测试从入门到精通-vLLM 部署与性能测试day15
服务器·显卡·nvidia·vllm
谢白羽6 天前
vllm抢占机制详解
算法·vllm
从零开始学习人工智能6 天前
vLLM 多卡部署技巧:如何单独降低某张 GPU 的显存占用
vllm
执笔论英雄7 天前
【vllm】PD分离
vllm
谢白羽7 天前
多集群/分布式 LLM 推理方案全景:2026 年选型指南
分布式·vllm·sglang·llm-d
x²+(y-√³x²)²=18 天前
Linux 或者 Ubuntu 离线使用 vllm启动大模型
linux·ubuntu·vllm
HyperAI超神经9 天前
【TVM教程】理解 Relax 抽象层
人工智能·深度学习·学习·机器学习·gpu·tvm·vllm