Pytorch分布式训练,其他GPU进程占用GPU0的原因

问题

最近跑师兄21年的论文代码,代码里使用了Pytorch分布式训练,在单机8卡的情况下,运行代码,出现如下问题。

也就是说GPU(1..7)上的进程占用了GPU0,这导致GPU0占的显存太多,以至于我的batchsize不能和原论文保持一致。

解决方法

我一点一点进行debug。

首先,在数据加载部分,由于没有将local_rankworld_size传入get_cifar_iter函数,导致后续使用DALI创建pipeline时使用了默认的local_rank=0,因此会在GPU0上多出该GPU下的进程

其次,在使用torch.load加载模型权重时,没有设置map_location,于是会默认加载到GPU0上,下图我选择将模型权重加载到cpu。虽然,这会使训练速度变慢,但为了和论文的batchsize保持一致也不得不这样做了。-.-

参考文献

  1. nn.parallel.DistributedDataParallel多卡训练,第一张卡会多出进程?
相关推荐
烤汉堡1 小时前
Python入门到实战:post请求+cookie+代理
爬虫·python
luod1 小时前
Python异常链
python
我不是QI2 小时前
周志华《机器学习---西瓜书》 一
人工智能·python·机器学习·ai
今天没ID2 小时前
Python 编程实战:从基础语法到算法实现 (1)
python
二川bro2 小时前
Python在AI领域应用全景:2025趋势与案例
开发语言·人工智能·python
棒棒的皮皮2 小时前
【Python】Open3d用于3D测高项目
python·3d·open3d
CodeLongBear2 小时前
Python数据分析: 数据可视化入门:Matplotlib基础操作与多坐标系实战
python·信息可视化·数据分析
李晨卓3 小时前
python学习之不同储存方式的操作方法
python·代码规范
站大爷IP3 小时前
实战:爬取某联招聘职位需求并生成词云——从零开始的完整指南
python
deephub3 小时前
从零开始:用Python和Gemini 3四步搭建你自己的AI Agent
人工智能·python·大语言模型·agent