pytorch梯度累积

梯度累加其实是为了变相扩大batch_size,用来解决显存受限问题。

常规训练方式,每次从train_loader读取出一个batch的数据:

python 复制代码
for x,y in train_loader:
	pred = model(x)
	loss = criterion(pred, label)
	# 反向传播
	loss.backward()
	# 根据新的梯度更新网络参数
	optimizer.step()
	# 清空以往梯度,通过下面反向传播重新计算梯度
	optimizer.zero_grad()

pytorch每次forward完都会得到一个用于梯度回传的计算图,pytorch构建的计算图是动态的,其实在每次backward后计算图都会从内存中释放掉,但是梯度不会清空的。所以若不显示的进行optimizer.zero_grad()清空过往梯度这一步操作,backward()的时候就会累加过往梯度。

梯度累加的做法:

python 复制代码
accumulation_steps = 4
for i,(x,y) in enumerate(train_loader):
	pred = model(x)
	loss = criterion(pred, label)
	
	# 相当于对累加后的梯度取平均
	loss = loss/accumulation_steps
	# 反向传播
	loss.backward()

	if (i+1) % accumulation_steps == 0:
		# 根据新的梯度更新网络参数
		optimizer.step()
		# 清空以往梯度,通过下面反向传播重新计算梯度
		optimizer.zero_grad()

代码中设置accumulation_steps = 4,意思就是变相扩大batch_size四倍。因为代码中每隔4次迭代才清空梯度,更新参数。

至于为啥loss = loss/accumulation_steps,因为梯度累加了四次呀,那就要取平均,除以4。那我每次loss取4,其实就相当于最后将累加后的梯度除4咯。同时,因为累计了4个batch,那学习率也应该扩大4倍,让更新的步子跨大点。

看网上的帖子有讨论对BN层是否有影响,因为BN的估算阶段(计算batch内均值、方差)是在forward阶段完成的,那真实的batch_size放大4倍效果肯定是比通过梯度累加放大4倍效果好的,毕竟计算真实的大batch_size内的均值、方差肯定更精确。

还有讨论说通过调低BN参数momentum可以得到更长序列的统计信息,应该意思是能够记忆更久远的统计信息(均值、方差),以逼近真实的扩大batch_size的效果。

参考

pytorch骚操作之梯度累加,变相增大batch size

相关推荐
bryant_meng1 分钟前
【Reading Notes】(7.11)Favorite Articles from 2024 November
人工智能·深度学习·计算机视觉·aigc·资讯
GEO_Huang3 分钟前
企业转型无从下手?数谷的定制化 AI 方案能否指点迷津?
大数据·人工智能·aigc·rpa·geo·企业智能体定制·企业ai定制
Yvonne爱编码20 分钟前
2026 现象级 AI 工具 OpenClaw 全解析:本地部署、自动化实战与技术揭秘
运维·人工智能·自动化
啦啦啦_999921 分钟前
1. AI 学习目录
java·人工智能
mygugu22 分钟前
归纳理解epoch、batch、batch size、step、iteration深度学习名词
人工智能·算法
AI科技星32 分钟前
基于双隐含量(角速度 +质量 )的全量变形公式体系-发现新公式
开发语言·人工智能·线性代数·算法·矩阵·数据挖掘
格鸰爱童话33 分钟前
向AI学习项目技能(二)
java·人工智能·python·学习
Sagittarius_A*37 分钟前
傅里叶变换:从空域到频域的图像分析【计算机视觉】
图像处理·人工智能·python·opencv·计算机视觉·傅里叶变换·频域滤波
入门工作者39 分钟前
opencv 灰度矩求亚像素
人工智能·opencv·计算机视觉
Pyeako44 分钟前
深度学习--循环神经网络原理&局限&与LSTM解决方案
人工智能·python·rnn·深度学习·lstm·循环神经网络·遗忘门