Pytorch里面参数更新前为什么要梯度手动置为0?

因为在一般情况下,每次minibatch之后,都会计算得到一个loss,进而计算该loss关于全局参数的梯度。如果在下一次minibatch 进入模型,计算得到相应的loss和梯度之前,不对优化器的梯度进行置0操作,那么几次batch的梯度会有一个累积效应,影响模型参数的优化。

在每一次batch'训练完之后,计算得到loss损失函数和相应梯度,都会对模型参数进行调整,那么该batch数据在这一轮训练里面的作用已经完成了。我们不希望这些优化过模型参数的batch的loss梯度累积起来,继续对模型参数优化产生影响。

相关推荐
m0_748839496 分钟前
CSS如何实现元素平滑滚动_使用scroll-behavior属性设置
jvm·数据库·python
橙露18 分钟前
特征选择实战:方差、卡方、互信息法筛选有效特征
人工智能·深度学习·机器学习
Victoria.a20 分钟前
python基础语法
开发语言·python
TechMasterPlus35 分钟前
LangGraph 实战指南:构建状态驱动的 LLM 应用架构
人工智能·架构
海森大数据1 小时前
数据与特征“协同进化”:机器学习加速发现高性能光合成过氧化氢COF催化剂
人工智能·机器学习
xiaotao1311 小时前
01-编程基础与数学基石: Python核心数据结构完全指南
数据结构·人工智能·windows·python
青苔猿猿1 小时前
【1】JupyterLab安装
python·jupyter
SteveSenna1 小时前
Trossen Arm MuJoCo自定义1:改变目标物体
人工智能·学习·算法·机器人
xiaoyaohou111 小时前
023、数据增强改进(二):自适应数据增强与AutoAugment策略
开发语言·python
不熬夜的熬润之1 小时前
YOLOv5-OBB 训练避坑笔记
人工智能·yolo·计算机视觉