pytorch中的loss.backward()和optimizer.step()中的使用的梯度方向问题

python 复制代码
# 举例:梯度下降更新模型参数
optimizer = torch.optim.SGD(model.parameters(), lr=learning_rate)

# 在每个训练步骤中
optimizer.zero_grad()  # 清零梯度
output = model(input)
loss = loss_function(output, target)
loss.backward()       # 计算梯度
optimizer.step()       # 更新模型参数(沿着梯度的负方向)

在这个例子中,loss.backward() 计算的梯度方向是损失函数上升的方向,而 optimizer.step() 则使用了梯度的负方向来更新模型参数。

相关推荐
ppppppatrick4 分钟前
【深度学习基础篇12】从 GPT 到 DeepSeek:大模型的架构革命与工程美学
gpt·深度学习·架构
hongyuyahei6 分钟前
GSPO策略损失完整演示
pytorch·python
&星痕&12 分钟前
从零开始手搓 (1)计算图 (c++,python语言实现)
c++·python·深度学习·机器学习
青禾木森19 分钟前
学习 AI 系列|初识 RAG:深入分析分块策略和向量的技术实现 02
深度学习
码农三叔20 分钟前
(10-2)大模型时代的人形机器人感知:3D大模型与场景理解
人工智能·机器学习·计算机视觉·3d·机器人·人形机器人
duyinbi751720 分钟前
多尺度空洞卷积分支模块改进YOLOv26感受野扩展与特征提取能力双重突破
深度学习·yolo·目标跟踪
xx_xxxxx_31 分钟前
多模态动态融合模型Predictive Dynamic Fusion论文阅读与代码分析4-代码架构
论文阅读·机器学习·transformer·多模态
Marye_爱吃樱桃31 分钟前
机器学习——模型评估与选择(一)————(评估方法)
机器学习
忧郁的橙子.36 分钟前
04-自定义微调训练BERT模型效果测试 +中文八分类
人工智能·深度学习·bert·中文多分类模型训练
LSQ的测试日记42 分钟前
深度学习_目标检测,RCNN,Fast-RCNN和Faster-RCNN
人工智能·深度学习·目标检测