Pytorch里面参数更新前为什么要梯度手动置为0?

因为在一般情况下,每次minibatch之后,都会计算得到一个loss,进而计算该loss关于全局参数的梯度。如果在下一次minibatch 进入模型,计算得到相应的loss和梯度之前,不对优化器的梯度进行置0操作,那么几次batch的梯度会有一个累积效应,影响模型参数的优化。

在每一次batch'训练完之后,计算得到loss损失函数和相应梯度,都会对模型参数进行调整,那么该batch数据在这一轮训练里面的作用已经完成了。我们不希望这些优化过模型参数的batch的loss梯度累积起来,继续对模型参数优化产生影响。

相关推荐
高洁01几秒前
10分钟了解向量数据库(1)
python·深度学习·机器学习·transformer·知识图谱
汗流浃背了吧,老弟!1 分钟前
智能客服文本匹配系统
人工智能
gihigo19982 分钟前
MATLAB中实现信号迭代解卷积的几种方法
人工智能·深度学习·matlab
DP+GISer2 分钟前
00基于pytorch的深度学习遥感地物分类全流程实战教程(包含遥感深度学习数据集制作与大图预测)-前言
pytorch·python·深度学习·图像分割·遥感·地物分类
ASD123asfadxv3 分钟前
交通手势识别_YOLO11实例分割实现八种手势检测与识别_DWR改进
人工智能·yolo
拉姆哥的小屋4 分钟前
从T5到Sentence-BERT:打造下一代个性化推荐系统 - EmbSum深度解析
人工智能·深度学习
LJ97951117 分钟前
媒介宣发数字化:如何用AI打通资源与效果的任督二脉
人工智能
耶夫斯计10 分钟前
【SQL_agent】基于LLM实现sql助理
数据库·python·sql·语言模型
vibag11 分钟前
RAG向量数据库
python·语言模型·langchain·大模型