Pytorch里面参数更新前为什么要梯度手动置为0?

因为在一般情况下,每次minibatch之后,都会计算得到一个loss,进而计算该loss关于全局参数的梯度。如果在下一次minibatch 进入模型,计算得到相应的loss和梯度之前,不对优化器的梯度进行置0操作,那么几次batch的梯度会有一个累积效应,影响模型参数的优化。

在每一次batch'训练完之后,计算得到loss损失函数和相应梯度,都会对模型参数进行调整,那么该batch数据在这一轮训练里面的作用已经完成了。我们不希望这些优化过模型参数的batch的loss梯度累积起来,继续对模型参数优化产生影响。

相关推荐
今天你TLE了吗10 分钟前
LLM到Agent&RAG——AI知识点概述 第六章:Function Call函数调用
java·人工智能·学习·语言模型·大模型
imbackneverdie17 分钟前
科研绘图素材从哪找?
人工智能·科研·绘图工具·科研绘图·研究生·ai工具·科研工具
天天进步201529 分钟前
Python全栈项目:从零构建基于 Django 的知识管理系统(KMS)
开发语言·python·django
十铭忘31 分钟前
infoGCN++——尝试训练
人工智能
珎珎啊35 分钟前
Python3 迭代器与生成器
开发语言·python
传说故事1 小时前
【论文阅读】DreamDojo: A Generalist Robot World Model from Large-Scale Human Videos
论文阅读·人工智能·具身智能
李昊哲小课1 小时前
LLM Wiki - 本地知识库管理系统
人工智能·本地知识库·llm wiki
水如烟1 小时前
孤能子视角:跨域联接之示例,观察符投射
人工智能
思绪无限1 小时前
YOLOv5至YOLOv12升级:金属锈蚀检测系统的设计与实现(完整代码+界面+数据集项目)
人工智能·python·深度学习·目标检测·计算机视觉·yolov12