Pytorch里面参数更新前为什么要梯度手动置为0?

因为在一般情况下,每次minibatch之后,都会计算得到一个loss,进而计算该loss关于全局参数的梯度。如果在下一次minibatch 进入模型,计算得到相应的loss和梯度之前,不对优化器的梯度进行置0操作,那么几次batch的梯度会有一个累积效应,影响模型参数的优化。

在每一次batch'训练完之后,计算得到loss损失函数和相应梯度,都会对模型参数进行调整,那么该batch数据在这一轮训练里面的作用已经完成了。我们不希望这些优化过模型参数的batch的loss梯度累积起来,继续对模型参数优化产生影响。

相关推荐
阿恩.7706 分钟前
化学前沿:科技革新与跨学科应用
人工智能·经验分享·笔记·科技·计算机网络·数学建模
listhi52018 分钟前
MOEAD算法实现详解(基于Python与MATLAB)
python·算法·matlab
byzh_rc22 分钟前
[认知计算] 循环神经网络
人工智能·python·rnn·深度学习·神经网络·机器学习
CNRio25 分钟前
AI赋能市井烟火:科技与治理的双重革命
人工智能·科技·easyui
黑客思维者27 分钟前
Python 机器学习TensorFlow 2.x 入门实战:CNN/RNN/Transformer
python·机器学习·tensorflow
居然JuRan28 分钟前
一张日落照片,为什么传统数据库"看不懂"?揭秘向量数据库的魔力
人工智能
美团技术团队32 分钟前
LongCat 上线 AI 生图!精准高效,AI 创作不设限
人工智能
xixixi7777733 分钟前
NTN(神经张量网络):让AI学会“关系推理”的里程碑
网络·人工智能·神经网络·ai·大模型·ntn
二川bro36 分钟前
类型错误详解:Python TypeError排查手册
android·java·python
测试人社区—841641 分钟前
Mocking与Stubbing在单元测试中的正确使用
人工智能·git·单元测试·自动化·bug·postman