基于Kubernetes分布式部署DeepSeek-R1(在线快速版)

准备阶段

1. 硬件说明

  • 服务器:3台服务器(建议每台至少8核CPU, 16GB内存, 24G显存,500GB硬盘空间)
  • 网络:确保三台服务器之间可以互相通信
  • 显卡:NVIDIA A10

2. 软件说明

  • OS:CentOS 8.5
  • Sealos:v5.0.1 (用于快速部署k8s集群及gpu组件)
  • kubernetes:v1.30.5
  • lws(LeaderWorkerSet):v0.5.1(k8s官方推出的用于分布式部署大模型的API)
  • vLLM:用于进行大型语言模型的推理和部署
  • DeepSeek-R1 模型:由于资源有限,这里仅部署蒸馏版1.5B的作为演示

开始部署

安装Nvidia驱动

手动在集群每个节点上安装驱动

shell 复制代码
安装依赖
# yum install -y elfutils-libelf-devel

安装驱动,驱动文件可从NVIDIA官网下载
这里文件是A10版驱动,已分享到百度网盘,可在文章最下面获取链接
# bash nvidia-driver/NVIDIA-Linux-x86_64-550.144.03.run --silent --accept-license

NVIDIA官网:https://www.nvidia.cn/drivers/lookup/

安装sealos

shell 复制代码
文件已分享到百度网盘,可在文章最下面获取链接
# rpm -ivh sealos/sealos_5.0.1_linux_amd64.rpm

一键部署k8s集群

部署k8s集群及gpu组件:

shell 复制代码
sealos run registry.cn-shanghai.aliyuncs.com/labring/kubernetes-docker:v1.30.5 \
 registry.cn-shanghai.aliyuncs.com/labring/helm:v3.8.2 \
 registry.cn-shanghai.aliyuncs.com/labring/calico:v3.24.1 \
 registry.cn-shanghai.aliyuncs.com/labring/ingress-nginx:v1.11.3 \
 registry.cn-hangzhou.aliyuncs.com/lusyoe/gpu-operator:v24.9.2 \
 registry.cn-hangzhou.aliyuncs.com/lusyoe/lws:v0.5.1 \
--masters 192.168.32.1 \
--nodes 192.168.32.2,192.168.32.3 -p [your-ssh-passwd]

验证是否部署成功:

shell 复制代码
# 查看节点状态是否Ready
kubectl get nodes

# 查看gpu 组件是否运行成功,可以多等一会
kubectl get pods -n gpu-operator

验证gpu

验证k8s集群是否支持gpu:

shell 复制代码
sealos run registry.cn-hangzhou.aliyuncs.com/lusyoe/gpu-pod:v1.0

kubectl get pods
kubectl logs gpu-pod

# 出现以下字符表示测试成功
[Vector addition of 50000 elements]
Copy input data from the host memory to the CUDA device
CUDA kernel launch with 196 blocks of 256 threads
Copy output data from the CUDA device to the host memory
Test PASSED
Done

部署vLLM与DeepSeek-R1模型

通过hfd.sh 下载镜像:

shell 复制代码
# 修改文件的执行权限
文件已分享到百度网盘,可在文章最下面获取链接
chmod a+x huggingface/hfd.sh

# 设置国内的镜像地址,默认官网无法访问
export HF_ENDPOINT="https://hf-mirror.com"

# 使用aria2 下载更快
yum install -y aria2

cd huggingface

# 下载指定镜像,并存放到本地/mnt/DeepSeek-R1-Distill-Qwen-1.5B 目录下
./hfd.sh deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B --local-dir /mnt/DeepSeek-R1-Distill-Qwen-1.5B

模型下载完后,这里可以将模型文件复制到每个节点相同目录下,也可以通过NFS等形式共享一个文件,然后在其他节点上挂载即可。

部署vLLM和模型

shell 复制代码
部署文件已分享到百度网盘,可在文章最下面获取链接
kubectl apply -f vllm/vllm-manifest.yaml

验证部署

shell 复制代码
kubectl get pods
kubectl logs vllm-0

待日志出现如下打印时,则已经部署成功,后续可以通过ingress直接在本地访问了:

百度网盘链接

链接:https://pan.baidu.com/s/1Vi2_wKR2lUOAB28YnTq6pw

提取码:5ote

相关推荐
裁二尺秋风1 小时前
k8s(12) — 版本控制和滚动更新(金丝雀部署理念)
云原生·容器·kubernetes
项目題供诗1 小时前
黑马k8s(六)
云原生·容器·kubernetes
predisw2 小时前
kafka connect 大概了解
分布式·kafka
Why not try?!4 小时前
Centos7 中 Docker运行配置Apache
运维·docker·容器
奔跑吧邓邓子4 小时前
DeepSeek 赋能 VR/AR:开启智能交互新纪元
ar·交互·vr·应用·deepseek
计算机毕设定制辅导-无忧学长4 小时前
RabbitMQ 快速上手:安装配置与 HelloWorld 实践(二)
分布式·rabbitmq·ruby
hnlucky4 小时前
如何彻底清空docker里面不使用的容器?
运维·docker·容器
啾啾Fun4 小时前
【Java微服务组件】分布式协调P1-数据共享中心简单设计与实现
java·分布式·微服务
奔跑吧邓邓子5 小时前
DeepSeek 赋能量子计算:突破与未来图景
应用·量子计算·deepseek
梦想画家7 小时前
Scrapy进阶实践指南:从脚本运行到分布式爬取
分布式·scrapy·数据工程