optimizer和loss.backward()相关函数

optimizer.zero_grad() # 梯度清零(一定要先进行梯度清零,这样tensor里面的grad就不会累加)

loss.backward()是用来求导的

optimizer.step()一般来说根据求来的导数进行梯度下降算法来更新参数

上面的顺序步骤不能变

相关推荐
拾贰_C2 小时前
【Anaconda | Python | pytorch】sklearn scikit-learn 报错:
pytorch·python·sklearn
Mr.Lee jack2 小时前
【torch.compile】PyTorch Dynamo 和 Inductor 编译流程
人工智能·pytorch·深度学习
小张帅三代2 小时前
华为昇腾服务器ubuntu Anaconda安装PyTorch npu 版本 步骤
服务器·pytorch·ubuntu
撬动未来的支点3 小时前
【AI邪修·神经网络】神经网络基础—代码分析—手写数字识别
pytorch
idkmn_3 小时前
Daily AI 20251219 (PyTorch基础回顾3)
人工智能·pytorch·python·深度学习·神经网络
baby_hua3 小时前
20251011_Pytorch深度学习(快速预览)
人工智能·pytorch·深度学习
盼小辉丶4 小时前
PyTorch实战(17)——神经风格迁移
pytorch·深度学习·风格迁移
baby_hua16 小时前
20251024_PyTorch深度学习快速入门教程
人工智能·pytorch·深度学习
hopsky1 天前
经典Transformer的PyTorch实现
pytorch·深度学习·transformer
brave and determined1 天前
CANN训练营 学习(day7)昇腾AI训练全流程实战:从模型迁移到性能优化的深度指南
pytorch·ai·ai训练·昇腾ai·msprobe·模型性能调优·训练配置