Pytorch里面参数更新前为什么要梯度手动置为0?

因为在一般情况下,每次minibatch之后,都会计算得到一个loss,进而计算该loss关于全局参数的梯度。如果在下一次minibatch 进入模型,计算得到相应的loss和梯度之前,不对优化器的梯度进行置0操作,那么几次batch的梯度会有一个累积效应,影响模型参数的优化。

在每一次batch'训练完之后,计算得到loss损失函数和相应梯度,都会对模型参数进行调整,那么该batch数据在这一轮训练里面的作用已经完成了。我们不希望这些优化过模型参数的batch的loss梯度累积起来,继续对模型参数优化产生影响。

相关推荐
天下无敌笨笨熊2 分钟前
ES作为向量库研究
大数据·python·elasticsearch
数字游名Tomda3 分钟前
腾讯开源最新视频生成模型:仅8.3B,元宝已接入
人工智能·开源·开源软件
一点一木5 分钟前
国内首款原生视觉编程模型实测:Doubao-Seed-Code 前端 Agent 从零完成像素画编辑器
前端·人工智能·agent
数据知道11 分钟前
FastAPI项目:从零到一搭建一个网站导航系统
python·mysql·fastapi·python web·python项目
●VON30 分钟前
人工智能、机器学习与深度学习:从概念到实践
人工智能·深度学习·机器学习
程序员爱钓鱼38 分钟前
Python 编程实战 · 进阶与职业发展:数据分析与 AI(Pandas、NumPy、Scikit-learn)
后端·python·trae
软件开发技术深度爱好者42 分钟前
Python库/包/模块管理工具
开发语言·python
学习中的数据喵43 分钟前
机器学习之逻辑回归
人工智能·机器学习·逻辑回归
kupeThinkPoem1 小时前
vscode中continue插件介绍
人工智能
程序员爱钓鱼1 小时前
Python 编程实战 · 进阶与职业发展:Web 全栈(Django / FastAPI)
后端·python·trae