Pytorch里面参数更新前为什么要梯度手动置为0?

因为在一般情况下,每次minibatch之后,都会计算得到一个loss,进而计算该loss关于全局参数的梯度。如果在下一次minibatch 进入模型,计算得到相应的loss和梯度之前,不对优化器的梯度进行置0操作,那么几次batch的梯度会有一个累积效应,影响模型参数的优化。

在每一次batch'训练完之后,计算得到loss损失函数和相应梯度,都会对模型参数进行调整,那么该batch数据在这一轮训练里面的作用已经完成了。我们不希望这些优化过模型参数的batch的loss梯度累积起来,继续对模型参数优化产生影响。

相关推荐
yunhuibin几秒前
CNN基础学习
人工智能·python·深度学习·神经网络
Together_CZ4 分钟前
YOLO26模型今日发布,致力于打造端到端计算范式的端侧AI新标杆
人工智能·yolo·目标检测·ultralytics·yolo26·致力于打造端到端计算范式·端侧ai新标杆
陈晨辰熟稳重5 分钟前
20260113-np.random.multinomial 与 torch.multinomial
pytorch·python·numpy·采样·multinomial
智航GIS8 分钟前
11.6 Pandas数据处理进阶:缺失值处理与数据类型转换完全指南
python·pandas
小希smallxi8 分钟前
Java 程序调用 FFmpeg 教程
java·python·ffmpeg
2301_7657151411 分钟前
全球缺芯背景下,IDM模式如何引领传感器产业革新
人工智能·阿里云·idm
sali-tec13 分钟前
C# 基于OpenCv的视觉工作流-章11-高斯滤波
图像处理·人工智能·opencv·算法·计算机视觉
美狐美颜sdk15 分钟前
全局美颜SDK开发方案:直播平台如何实现系统级美颜
人工智能·音视频·美颜sdk·视频美颜sdk·美狐美颜sdk
学习的学习者22 分钟前
CS课程项目设计22:基于Transformer的智能机器翻译算法
人工智能·python·深度学习·transformer·机器翻译
向量引擎小橙27 分钟前
驾驭AI:如何避免“智能陷阱”
人工智能