Pytorch分布式训练

现在深度学习模型占用显存大,数据量也大,单张显卡上训练已经满足不了要求了,只有多GPU并行训练才能加快训练速度;并行训练又分为模型并行和数据并行两种。模型并行比较少用到,这里主要介绍数据并行,pytorch中数据并行有两种DataParallel和DistributedDataParallel,前者是pytorch训练早期采用的,由于其单线程和显存利用率低等缺点,现在大多使用后者。


文章目录


1、并行训练

并行训练分两种,模型并行和数据并行。

1)模型并行。模型并行通常是指要训练的模型非常大,大到一块卡根本放不下,因而需要把模型进行拆分放到不同的卡上。例如早期的AlexNet就是拆分模型利用两块GPU训练的。

2)数据并行。数据并行通常用于训练数据非常庞大的时候,比如有几百万张图像用于训练模型。此时,如果只用一张卡来进行训练,那么训练时间就会非常的长。或者模型比较大,由于单卡显存的限制,训练时的batch size不能设置过大。这时就需要多个GPU训练来提升batchsize大小。

相关推荐
pen-ai1 分钟前
【高级机器学习】 10. 领域适应与迁移学习
人工智能·机器学习·迁移学习
CV实验室5 分钟前
AAAI 2026 Oral 之江实验室等提出MoEGCL:在6大基准数据集上刷新SOTA,聚类准确率最高提升超8%!
人工智能·机器学习·计算机视觉·数据挖掘·论文·聚类
githubcurry13 分钟前
深度相机kinect拍摄的.mkv深度视频为什么特别大,mkv文件中含有什么数据,以及数据格式是什么
人工智能·数码相机·音视频
机器觉醒时代34 分钟前
“干活”机器人“教练”登场:宇树机器人推出首款轮式机器人G1-D
人工智能·机器学习·机器人·人形机器人
QTreeY12337 分钟前
detr目标检测+deepsort/strongsort/bytetrack/botsort算法的多目标跟踪实现
人工智能·算法·yolo·目标检测·计算机视觉·目标跟踪
only-code40 分钟前
Provable Robust Watermarking for AI-Generated Text:给大模型文字“打上隐形指纹”
人工智能·ai大模型·论文解读·ai检测·文本检测
编程小白_正在努力中44 分钟前
第四章深度解析:智能体经典范式实战指南——从ReAct到Reflection的全流程拆解
人工智能·agent·智能体
创思通信44 分钟前
基于K210的人脸识别开锁
人工智能·yolo·人脸识别·k210
xuehaikj1 小时前
基于RetinaNet的建筑设计师风格识别与分类研究_1
人工智能·数据挖掘
workpieces1 小时前
从设计资产到生产代码:构建组件一致性的自动化闭环
人工智能