【杂记】vLLM如何指定GPU单卡/多卡离线推理

写在前面

仅作个人学习与记录用。主要记录vLLM指定GPU单卡/多卡离线推理的方法。


vLLM官方文档中Environment Variables页面有对指定GPU方法的唯一描述:

bash 复制代码
# used to control the visible devices in the distributed setting
"CUDA_VISIBLE_DEVICES":
lambda: os.environ.get("CUDA_VISIBLE_DEVICES", None),

在vLLM离线推理(Offline Inference)时,可以通过设置tensor_parallel_size = 1/2/3...,来使用默认的单卡GPU或多卡GPU来推理。但是如果想在指定的单卡/多卡GPU中运行vLLM,那么应该如何以及在哪里设置CUDA_VISIBLE_DEVICES?

一般来说,使用下面三种方法就可以了:

shell指定:

bash 复制代码
CUDA_VISIBLE_DEVICES=3  python train.py

另一种shell指定(不推荐):

bash 复制代码
export CUDA_VISIBLE_DEVICES=3  
python train.py

代码内部指定:

python 复制代码
import os
os.environ["CUDA_VISIBLE_DEVICES"]="3"

但是在实际执行代码过程中,可能存在失效的情况。即无论怎么修改可见的GPU编号,最后程序都是按照顺序从第0块开始使用。问题出在哪里呢?

假设一共有四卡,先使用nvidia-smi -L查看可用GPU及序号:

bash 复制代码
GPU 0: GeForce RTX XXX (UUID: xxx)
GPU 1: GeForce RTX XXX (UUID: xxx)
GPU 2: GeForce RTX XXX (UUID: xxx)
GPU 3: NVIDIA XXX (UUID: xxx)

而在代码中测试,会得到:

python 复制代码
import os
os.environ["CUDA_VISIBLE_DEVICES"] = "3"
import torch
print(torch.cuda.get_device_name(0))  # 返回GPU名称,设备索引默认从0开始
print(torch.cuda.current_device())  # 返回现在使用的GPU索引

输出:
1
GeForce RTX XXX
0
python 复制代码
import os
os.environ["CUDA_VISIBLE_DEVICES"] = "0"
import torch
print(torch.cuda.get_device_name(0))  # 返回GPU名称,设备索引默认从0开始
print(torch.cuda.current_device())  # 返回现在使用的GPU索引

输出:
NVIDIA XXX
0

这是因为nvidia-smi命令中的GPU序号与代码中的GPU序号是相反的,nvidia-smi的 GPU序号默认使用PCI_BUS_ID,而py文件代码默认GPU序号遵循FASTEST_FIRST

那么可以修改上述指定方式如下:

shell指定:

bash 复制代码
CUDA_VISIBLE_DEVICES=3 export CUDA_DEVICE_ORDER="PCI_BUS_ID" python train.py

另一种shell指定(不推荐):

bash 复制代码
export CUDA_VISIBLE_DEVICES=3  
export CUDA_DEVICE_ORDER="PCI_BUS_ID"
python train.py

代码内部指定:

python 复制代码
import os
os.environ["CUDA_DEVICE_ORDER"] = "PCI_BUS_ID"
os.environ["CUDA_VISIBLE_DEVICES"] = "3"

另外需要注意,如果你在离线推理时import了pytorch等包,最好将os.environ["CUDA_VISIBLE_DEVICES"] = "3"移到import torch等代码之前,紧随import os之后,即按照如下的方式:

python 复制代码
import os
os.environ["CUDA_DEVICE_ORDER"] = "PCI_BUS_ID"
os.environ["CUDA_VISIBLE_DEVICES"]="3"
import torch
......
相关推荐
工业互联网专业6 分钟前
Python毕业设计选题:基于python的酒店推荐系统_django+hadoop
hadoop·python·django·vue·毕业设计·源码·课程设计
martian6658 分钟前
【人工智能离散数学基础】——深入详解数理逻辑:理解基础逻辑概念,支持推理和决策系统
人工智能·数理逻辑·推理·决策系统
Schwertlilien9 分钟前
图像处理-Ch7-图像金字塔和其他变换
图像处理·人工智能
任小永的博客13 分钟前
VUE3+django接口自动化部署平台部署说明文档(使用说明,需要私信)
后端·python·django
凡人的AI工具箱15 分钟前
每天40分玩转Django:Django类视图
数据库·人工智能·后端·python·django·sqlite
余生H19 分钟前
前端Python应用指南(三)Django vs Flask:哪种框架适合构建你的下一个Web应用?
前端·python·django
千天夜21 分钟前
深度学习中的残差网络、加权残差连接(WRC)与跨阶段部分连接(CSP)详解
网络·人工智能·深度学习·神经网络·yolo·机器学习
一勺汤22 分钟前
YOLOv8模型改进 第二十五讲 添加基于卷积调制(Convolution based Attention) 替换自注意力机制
深度学习·yolo·计算机视觉·模块·yolov8·yolov8改进·魔改
凡人的AI工具箱25 分钟前
每天40分玩转Django:实操图片分享社区
数据库·人工智能·后端·python·django
小军军军军军军29 分钟前
MLU运行Stable Diffusion WebUI Forge【flux】
人工智能·python·语言模型·stable diffusion