optimizer和loss.backward()相关函数

optimizer.zero_grad() # 梯度清零(一定要先进行梯度清零,这样tensor里面的grad就不会累加)

loss.backward()是用来求导的

optimizer.step()一般来说根据求来的导数进行梯度下降算法来更新参数

上面的顺序步骤不能变

相关推荐
ZHOU_WUYI2 小时前
LLMs-from-scratch :embeddings 与 linear-layers 的对比
pytorch·python·llm
雲_kumo3 小时前
从零开始读懂Transformer:架构解析与PyTorch实现
pytorch·架构·transformer
起个名字费劲死了4 小时前
Pytorch Yolov11目标检测+Android部署 留贴记录
pytorch·yolo·目标检测·安卓
Francek Chen1 天前
【深度学习计算机视觉】12:风格迁移
人工智能·pytorch·深度学习·计算机视觉·风格迁移
A-大程序员1 天前
【Pytorch】分类问题交叉熵
人工智能·pytorch·分类
董建光d1 天前
PyTorch 实现多种 CNN 模型并采用集成方法提升 CIFAR-10 分类性能
人工智能·pytorch·cnn
JJJJ_iii1 天前
【机器学习03】学习率与特征工程、多项式回归、逻辑回归
人工智能·pytorch·笔记·学习·机器学习·回归·逻辑回归
LiJieNiub2 天前
基于 PyTorch 实现 MNIST 手写数字识别
pytorch·深度学习·学习
chxin140162 天前
Transformer注意力机制——动手学深度学习10
pytorch·rnn·深度学习·transformer
MYX_3092 天前
第五章 神经网络的优化
pytorch·深度学习·神经网络·学习