pytorch中的loss.backward()和optimizer.step()中的使用的梯度方向问题

python 复制代码
# 举例:梯度下降更新模型参数
optimizer = torch.optim.SGD(model.parameters(), lr=learning_rate)

# 在每个训练步骤中
optimizer.zero_grad()  # 清零梯度
output = model(input)
loss = loss_function(output, target)
loss.backward()       # 计算梯度
optimizer.step()       # 更新模型参数(沿着梯度的负方向)

在这个例子中,loss.backward() 计算的梯度方向是损失函数上升的方向,而 optimizer.step() 则使用了梯度的负方向来更新模型参数。

相关推荐
AI人工智能+3 小时前
基于深度学习的银行回单识别技术,成为连接物理票据与数字财务系统的桥梁
深度学习·计算机视觉·ocr·银行回单识别
ComputerInBook3 小时前
数字图像处理(4版)——第 7 章——小波及其它图像变换(上)(Rafael C.Gonzalez&Richard E. Woods)
人工智能·机器学习·数字图像处理·图像变换
小鱼~~5 小时前
深度学习-交叉熵
深度学习
Element_南笙6 小时前
VGG网络-深度学习经典架构解析
网络·深度学习·架构
Black蜡笔小新7 小时前
企业级私有化AI模型训练工作站DLTM一体化AI模型训练工作站重构企业AI自主可控新模式
机器学习·ai大模型
陶陶然Yay8 小时前
神经网络卷积层梯度公式推导
人工智能·深度学习·神经网络
深念Y9 小时前
哈希与向量:计算机理解现实的两座桥梁
人工智能·数学·机器学习·向量·hash·哈希·空间
隔壁大炮10 小时前
Day06-08.CNN概述介绍
人工智能·pytorch·深度学习·算法·计算机视觉·cnn·numpy
β添砖java10 小时前
深度学习(8)过拟合、欠拟合
人工智能·深度学习
QiZhang | UESTC10 小时前
从基础 RoPE 到 YaRN:源码学习路线揭秘
pytorch·深度学习·学习