Watchdog caught collective operation timeout: WorkNCCL...

最近在使用pytorch框架的分布式多卡跑深度学习模型时,遇到了该问题,并且出错位置随机,无任何明确错误提示:

此前,也遇到过类似的问题,排查原因在于使用coco数据集做检测时,coco的训练集和验证集均存在有些数据没有label(即没有检测框的数据),损失计算有问题,从而导致了多卡训练在进行信息通信时卡死现象。本次初步排查出错位置在于:loss.backward(), 即梯度回传出错。

为了解决该问题,仍然排查数据问题,将coco没有标签的数据剔除,然而问题并没有解决。进一步排查发现,读取数据时是有标签的,经过了transform之后,边界框消失了!

所以问题在于transform中的随机裁剪操作,有可能将当前图片的所有label均裁剪在之外。进一步解决:重新多次transform,直到该数据的transform之后保持有label,问题解决。

总结:核心原因是数据corrupted/incomplete,解决数据问题,即可解决该问题。

相关推荐
ba_pi1 天前
每天写点什么2026-01-09-linux基础
linux·运维·服务器
wdfk_prog1 天前
[Linux]学习笔记系列 -- 底层CPU与体系结构宏
linux·笔记·学习
行走的bug...1 天前
cmake总结
linux·运维·服务器
zfxwasaboy1 天前
DRM KMS 子系统(3)CRTC
linux·c语言
二哈喇子!1 天前
PyTorch与昇腾平台算子适配:从注册到部署的完整指南
人工智能·pytorch·python
凌波粒1 天前
Linux 面试题篇
linux·运维·服务器
Joren的学习记录1 天前
【Linux运维疑难杂症】k8s集群创建calico网络失败
linux·运维·kubernetes
虾..1 天前
Linux 线程控制
linux·运维·服务器
镜中人★1 天前
408操作系统考纲知识点
linux·运维·服务器
liulilittle1 天前
rinetd 端口转发工具技术原理
linux·服务器·网络·c++·端口·通信·转发