optimizer和loss.backward()相关函数

optimizer.zero_grad() # 梯度清零(一定要先进行梯度清零,这样tensor里面的grad就不会累加)

loss.backward()是用来求导的

optimizer.step()一般来说根据求来的导数进行梯度下降算法来更新参数

上面的顺序步骤不能变

相关推荐
deflag11 小时前
第P10周-Pytorch实现车牌号识别
人工智能·pytorch·yolo
JolyouLu14 小时前
PyTorch-基础(CUDA、Dataset、transforms、卷积神经网络、VGG16)
人工智能·pytorch·cnn
boooo_hhh1 天前
深度学习笔记16-VGG-16算法-Pytorch实现人脸识别
pytorch·深度学习·机器学习
胡桃不是夹子1 天前
CPU安装pytorch(别点进来)
人工智能·pytorch·python
potender1 天前
CGAN代码
人工智能·pytorch·深度学习
大数据追光猿2 天前
【深度学习】Pytorch的深入理解和研究
人工智能·pytorch·python·深度学习·机器学习·ai编程
阿正的梦工坊2 天前
PyTorch gather 方法详解:作用、应用场景与示例解析(中英双语)
人工智能·pytorch·python
小怪兽会微笑2 天前
PyTorch Tensor 形状变化操作详解
人工智能·pytorch·python
叶庭云2 天前
PyTorch 深度学习框架中 torch.cuda.empty_cache() 的妙用与注意事项
pytorch·深度学习·gpu·empty_cache·内存缓存管理
爱丫爱2 天前
Python中常见库 PyTorch和Pydantic 讲解
开发语言·pytorch·python