Pytorch里面参数更新前为什么要梯度手动置为0?

因为在一般情况下,每次minibatch之后,都会计算得到一个loss,进而计算该loss关于全局参数的梯度。如果在下一次minibatch 进入模型,计算得到相应的loss和梯度之前,不对优化器的梯度进行置0操作,那么几次batch的梯度会有一个累积效应,影响模型参数的优化。

在每一次batch'训练完之后,计算得到loss损失函数和相应梯度,都会对模型参数进行调整,那么该batch数据在这一轮训练里面的作用已经完成了。我们不希望这些优化过模型参数的batch的loss梯度累积起来,继续对模型参数优化产生影响。

相关推荐
机器学习ing.1 分钟前
Vision Transformer(ViT)保姆级教程:从原理到CIFAR-10实战(PyTorch)!
人工智能·深度学习·机器学习
三排扣1 分钟前
手搓transformer
pytorch·python·transformer
算家计算2 分钟前
国产模型新王登基!刚刚,Kimi K2 Thinking发布,多项能力超越GPT-5
人工智能·开源·资讯
ZhengEnCi3 分钟前
P3B-90%初学者参数传错位置?合格程序员都这样选择参数类型
python
程序员晚枫12 分钟前
Python处理Excel的5个“神仙库”,办公效率直接翻倍!
python·excel
推理幻觉18 分钟前
IDE/编码代理架构与 Cursor 相关研究(汇总)
ide·人工智能·架构·agent
YangYang9YangYan29 分钟前
中专服装设计专业职业发展指南
大数据·人工智能·数据分析
新智元39 分钟前
AI 科学家登场!12 小时抵人类科学家半年工作量,已有 7 项大成果
人工智能·openai
新智元39 分钟前
PyTorch 之父闪电离职,AI 半壁江山集体致敬!
人工智能·openai
NON-JUDGMENTAL1 小时前
指令微调(Instruction Tuning)
人工智能·深度学习·机器学习