理解vllm分布式推理服务中的多节点Multi-Node部署方式

1. 多节点的含义

vllm官方文档(参考1)中给出了多节点"Multi-Node"多GPU部署的方案说明,注意该特性只是较新版本的vllm中才能使用。"Multi-Node"指的是,将大模型的推理和服务过程,分布在多个计算节点(服务器)上,进行推理的能力。这种分布式处理方式,能提升大模型在处理大量请求时的吞吐量、降低单个节点的负载,实现资源的有效利用。

一般来说,Multi-Node主要用于这种场景:k8s集群中,一个node的GPU资源不足以加载一个很大的模型,所以可以利用多个node的资源共同来加载模型

2. 单服务器部署多节点

vllm的参数--pipeline-parallel-size就是用来控制节点数的。如果将这个值设置为2,则最终就有2个模型同时做并发处理。官方文档(参考1)还举了个例子,如果服务器上有16个GPU,一个大模型需要8个GPU才能部署,则可以将--tensor-parallel-size参数的值设置为8,将--pipeline-parallel-size的值设置为2,这样就有2个模型同时做并发处理。

笔者有8块A800,我想部署8个Qwen2-7B模型做并发处理(一个模型只需要一块A800就能实现推理),则配置如下

复制代码
CUDA_VISIBLE_DEVICES=0,1,2,3,4,5,6,7 python -m vllm.entrypoints.openai.api_server 
--model /data/models/Qwen2-7B-Instruct/ 
--served-model-name aaa 
--trust-remote-code 
--tensor-parallel-size 1 
--pipeline-parallel-size 8 
--port 8000

经笔者实测,这样确实能将8个节点部署到一台服务器上,暴露的API接口也是统一的,也能让多模型支持并发。但实测发现,这样的部署方式,并不能带来提高并发的收益。

可见,单服务器部署多节点,每个节点只负责模型的一部分计算,而多个节点之间的协同工作是比较耗时的。这种单服务器多GPU卡的情况下,不如使用Single-Node Multi-GPU (tensor parallel inference)(参考1)能带来更大的并发处理收益。

注意:在上面这种场景下,笔者实测表面,多节点部署方式带来的收益,不如单节点单GPU的效果好。本文并非要推进使用多节点的部署方式,只是对这种方式展开讨论。

3. 参考

  1. vllm分布式服务。https://docs.vllm.ai/en/latest/serving/distributed_serving.html
  2. vllm默认参数值。https://docs.vllm.ai/en/v0.4.2/models/engine_args.html
  3. Mistral-Large-Instruct-2407部署。https://blog.csdn.net//article/details/140691972
相关推荐
深蓝电商API8 小时前
分布式事务在跨境交易中的解决方案
分布式·跨境电商·代购系统·反向海淘·代购平台·跨境代购
我真会写代码12 小时前
从入门到精通:Kafka核心原理与实战避坑指南
分布式·缓存·kafka
黄俊懿14 小时前
【架构师从入门到进阶】第二章:系统衡量指标——第一节:伸缩性、扩展性、安全性
分布式·后端·中间件·架构·系统架构·架构设计
一叶飘零_sweeeet14 小时前
击穿 Kafka 高可用核心:分区副本、ISR 机制与底层原理全链路拆解
分布式·架构·kafka
007张三丰16 小时前
常用缓存技术全方位解析:从本地缓存到分布式缓存
分布式·缓存
tianyuanwo19 小时前
Koji 分布式编译调度机制深度解析:多架构异构节点的资源优化方案
分布式·架构
江沉晚呤时19 小时前
.NET 9 快速上手 RabbitMQ 直连交换机:高效消息传递实战指南
开发语言·分布式·后端·rabbitmq·.net·ruby
Volunteer Technology20 小时前
zookeeper基础应用与实战二
分布式·zookeeper·云原生
姚青&1 天前
Pytest 测试用例并行运行与分布式运行
分布式·测试用例·pytest
若水不如远方2 天前
分布式一致性(六):拥抱可用性 —— 最终一致性与 Gossip 协议
分布式·后端·算法