PyTorch分布式训练常见错误包括端口被占、MASTER_ADDR配置错误、init_process_group超时及torchrun环境变量冲突;需检查端口占用、使用真实IP、确保WORLD_SIZE与RANK一致、避免手动设置torchrun管理的环境变量。PyTorch分布式训练报错 RuntimeError: Address already in use端口被占是初始化失败最常见原因,不是代码写错了,而是本地已有进程(比如上一次没杀干净的 python 或 torch.distributed 进程)绑定了 MASTER_PORT。实操建议:立即学习"Python免费学习笔记(深入)";先用 lsof -i :<code>MASTER_PORT(macOS/Linux)或 netstat -ano | findstr :<code>MASTER_PORT(Windows)查占用进程确认无用后直接 kill:kill -9 <code>PID(Linux/macOS)或 taskkill /F /PID <code>PID(Windows)更稳妥的做法:每次启动前换一个随机端口,比如用 export MASTER_PORT=((10000 + RANDOM % 1000))别用默认的 29500 ------ 它太常见,CI/本地多任务并行时极易冲突MASTER_ADDR 设成本机 localhost 却在多机训练中失败单机多卡能跑不代表多机通,localhost 在每台机器上都指向自己,跨机器根本连不上。实操建议:立即学习"Python免费学习笔记(深入)";必须设为可被所有节点访问的真实 IP,比如主节点网卡地址(非 127.0.0.1、非 localhost、非 Docker 内网 IP)运行前先手动 ping 测试:ping <code>MASTER_ADDR 从所有 worker 节点执行,不通就别往下试如果走 SSH 登录训练,注意云服务器安全组是否放行了 MASTER_PORT 端口(TCP)Docker 场景下,避免用 --network=host 外还设 localhost ------ 容器内 localhost 不等于宿主机网络命名空间init_process_group 调用超时卡死,日志停在 initializing process group这不是程序卡住,是等待其他 rank 连接超时。PyTorch 默认等 300 秒,期间只要有一个 rank 没 join,全部挂起。 稿定AI 拥有线稿上色优化、图片重绘、人物姿势检测、涂鸦完善等功能
相关推荐
粉嘟小飞妹儿2 小时前
PHP怎么使用Eloquent Attribute Synthesis属性合成_Laravel多源数据融合【指南】m0_640309302 小时前
用Symfony构建AI驱动的Web应用实战Warren982 小时前
Windows本地部署n8n完整教程(基于Docker,新手友好)星马梦缘2 小时前
强化学习实战-2——Keras-DoubleDQN解决Predator【图像输入】石榴树下的七彩鱼2 小时前
身份证 OCR 识别 API 接入详解(Python / Java 示例)qq_206901392 小时前
CSS如何选择同级中的第一个元素_通过-first-child伪类实现gzxdale2 小时前
数据库配置文件密码加解密AI、少年郎2 小时前
MiniMind 第 4 篇:《数据工程|Tokenizer 训练 + 预训练 / SFT/DPO 全数据集处理》满天星83035772 小时前
【MySQL】索引