深度学习单机多卡/多机多卡训练

一、概念的区分

分布式:是指多台机器的多块GPU,也就是多机多卡。

并行:指的一台机器上的多个GPU。也就是单机多卡。

同步更新:是指所有的GPU都计算完梯度之后,累加到一起求均值进行参数更新,再进行下一轮。

rank表示全局进程序号,local_rank表示本机子的进程序号。world_size表示全局进程个数。

举个例子,三台机器,每台机器四张卡全部用上,那么有group=1,world size=12

机器一:node=0 rank=0,1,2,3 local_rank=0,1,2,3 这里的node=0,rank=0的就是master

机器二:node=1 rank=4,5,6,7 local_rank=0,1,2,3

机器三:node=2 rank=8,9,10,11 local_rank=0,1,2,3

二、DP和DDP(pytorch内的)

DP(DataParallel)模式主要支持单机多卡。其中有一个进程,多个线程(受全局解释器锁限制),local_rank0为master节点,相当于参数服务器,向其他GPU广播参数,在反向传播后,各卡将梯度集中到master节点,求平均更新参数,再将参数发送到其他卡上。训练时需要指定GPUS和master节点。

DDP(DistributedDataParallel)支持分布式多机多卡训练,也支持单机多卡训练。相对于DP其有多个进程进行并行训练,没有全局解释器锁的限制。同时模型广播只在初始化时广播一次,而不用像DP那样,每次前向传播前都要广播。因为DDP每个进程都有自己独立的优化器,执行自己的更新过程,而梯度通过通信传递到每个进程,所以执行的内容是相同的。

DDP与DP的另一个不同就是我们需要用DistributedSample来对我的dataset进行处理,这样每个进程都只会调用一部分的数据集。不同的进程间就不会发生数据的交互。不然如果使用默认的DP的数据分配方式,就会出现多机通信的一个问题,很耗时。DP是把batch_size个数据切分到不同的卡上。比如batch_size30,两个GPU,那么每个GPU实际的bs为15.而DDP的话,batch_size为30,表示的是每个卡都是30的batch_size.

三、SyncBN

标准的BN因为使用数据并行(DP),所以只对单卡上的样本进行归一化,这样batch_size就很小,影响模型收敛。而syncbn则是在前向传播时求全局数据的一个均值和方差(多机多卡,单机多卡),然后通过消息传给每个卡,进行归一化操作。这样就可以防止batch_size太小,导致BN失效的问题。这里提一嘴,一般GPU之间的通信,我们都默认采用的NCCL通信框架。

相关推荐
c#上位机2 分钟前
halcon图像腐蚀—erosion1
图像处理·人工智能·计算机视觉
物流可信数据空间2 分钟前
数据要素×数智住建:可信数据空间筑牢底座 “数据+AI”激活变革新动能
人工智能
wshzd3 分钟前
LLM之Agent(三十七)|AI Agents(六):AI Agents架构
人工智能·架构
阿桂天山3 分钟前
怎样让数据资产灵动起来
大数据·人工智能
知行力4 分钟前
AI一周资讯 251129-251205
人工智能·chatgpt
老赵聊算法、大模型备案6 分钟前
新规解读|《公安机关网络空间安全监督检查办法(征求意见稿)》发布,AI与互联网企业需重点关注哪些合规义务?
人工智能·安全·web安全
艾莉丝努力练剑9 分钟前
【Python基础:语法第三课】Python 函数详解:定义、参数、返回值与作用域
服务器·人工智能·windows·python·pycharm
丝斯201111 分钟前
AI学习笔记整理(29)—— 计算机视觉之人体姿态估计相关算法
人工智能·笔记·学习
biyezuopinvip11 分钟前
图像处理报告基于CNN的监控视频流的课堂签到系统
图像处理·人工智能·cnn·图像处理报告·基于cnn的·监控视频流的·课堂签到系统
xixixi7777713 分钟前
二值化——将具有丰富灰度或彩色信息的图像,转换为仅由两种像素值(通常是0和1,或0和255) 组成的图像,即黑白图像
网络·图像处理·人工智能·学习·计算机视觉·信息与通信