Pytorch分布式训练,其他GPU进程占用GPU0的原因

问题

最近跑师兄21年的论文代码,代码里使用了Pytorch分布式训练,在单机8卡的情况下,运行代码,出现如下问题。

也就是说GPU(1..7)上的进程占用了GPU0,这导致GPU0占的显存太多,以至于我的batchsize不能和原论文保持一致。

解决方法

我一点一点进行debug。

首先,在数据加载部分,由于没有将local_rankworld_size传入get_cifar_iter函数,导致后续使用DALI创建pipeline时使用了默认的local_rank=0,因此会在GPU0上多出该GPU下的进程

其次,在使用torch.load加载模型权重时,没有设置map_location,于是会默认加载到GPU0上,下图我选择将模型权重加载到cpu。虽然,这会使训练速度变慢,但为了和论文的batchsize保持一致也不得不这样做了。-.-

参考文献

  1. nn.parallel.DistributedDataParallel多卡训练,第一张卡会多出进程?
相关推荐
没有bug.的程序员34 分钟前
Java 字节码:看懂 JVM 的“机器语言“
java·jvm·python·spring·微服务
下午见。2 小时前
Python基础入门:用Anaconda搭建环境的启蒙之旅
python
我叫汪枫3 小时前
Python 办公自动化入门:玩转 Excel 与 Word
python·word·excel
E_ICEBLUE3 小时前
三步完成 Markdown 到 Word/PDF 的转换:Python 教程
python·pdf·word·markdown·格式转换
田里的水稻4 小时前
NN_Transformer、Pytorch、TensorFlow和ONNX的名词辨析
pytorch·tensorflow·transformer
后台开发者Ethan4 小时前
LangGraph ReAct应用
python·langgraph
Felven4 小时前
天数智芯MR50推理卡测试
gpu·推理·mr50·天数
f***68604 小时前
问题:Flask应用中的用户会话(Session)管理失效
后端·python·flask
爱吃面条的猿4 小时前
Python修改pip install 指定安装包的路径和默认镜像源
linux·python·pip
饭饭大王6664 小时前
Python 模块的概念与导入:从基础语法到高级技巧
java·服务器·python