Pytorch中的优化器及其用法

来自 千问

在 PyTorch 中,优化器 就像是一个"智能导航员"。它根据损失函数计算出的梯度(即"路况信息"),决定模型参数(权重)应该往哪个方向、以多大的步幅移动,才能最快地到达"损失最低"的目的地。

PyTorch 的优化器都封装在 torch.optim 模块中。

为什么要用优化器?

如果没有优化器,你需要手动写代码来更新每一个参数,非常繁琐且容易出错:

python 复制代码
# 手动更新(不推荐)
w = w - learning_rate * w.grad

有了优化器,你只需要调用一行代码 optimizer.step(),它就能自动遍历模型中所有需要更新的参数,并根据设定的算法(如 SGD、Adam)完成更新。

核心用法:三步走

  1. 构建优化器:在训练前,告诉优化器它要管理哪些参数,以及学习率是多少。
  2. 清空梯度:在每次反向传播前,把上一轮计算的梯度清零。
  3. 更新参数:在反向传播计算出梯度后,让优化器执行更新。

常用优化器介绍与对比

优化器 全称 特点 适用场景
SGD 随机梯度下降 最基础,可加动量(Momentum) 教学、简单任务、需要精细调参
Adam 自适应矩估计 最常用。自适应学习率,收敛快 默认推荐!90% 的场景都可用
AdamW Adam + 权重衰减 Adam 的改进版,正则化效果更好 训练 Transformer 等大模型时首选
RMSprop 均方根传播 自适应学习率,适合非稳态目标 RNN、GAN 等复杂模型

代码示例:完整训练流程

下面是一个使用 nn.Linear 模型和 Adam 优化器的完整示例:

python 复制代码
import torch
import torch.nn as nn
import torch.optim as optim

# 1. 定义模型
model = nn.Linear(10, 1)  # 简单线性模型

# 2. 定义优化器 (关键步骤)
# lr (learning_rate): 学习率,控制步长
optimizer = optim.Adam(model.parameters(), lr=0.001)

# 3. 定义损失函数
criterion = nn.MSELoss()

# --- 模拟训练循环 ---
# 模拟数据
inputs = torch.randn(32, 10)  # 32个样本,10维特征
targets = torch.randn(32, 1)   # 真实标签

for epoch in range(100):
    # --- 训练四部曲 ---
    
    # 1. 前向传播:计算预测值
    outputs = model(inputs)
    
    # 2. 计算损失
    loss = criterion(outputs, targets)
    
    # 3. 反向传播:计算梯度
    # ⚠️ 在这之前,必须先清空上一轮的梯度!
    optimizer.zero_grad()   # 清空梯度
    loss.backward()        # 计算梯度 (此时梯度被存入 .grad 属性)
    
    # 4. 更新参数:优化器执行更新
    optimizer.step()       # 核心:根据梯度更新参数
    
    # 打印损失
    if epoch % 20 == 0:
        print(f"Epoch {epoch}, Loss: {loss.item():.4f}")

print("训练完成!")

进阶用法:为不同层设置不同学习率

在实际项目中(如迁移学习),你可能希望模型的某些部分学得快一点,某些部分学得慢一点。你可以通过传入参数组列表来实现:

python 复制代码
# 假设 model 有两个部分:features 和 classifier
optimizer = optim.SGD([
    {'params': model.features.parameters()},           # 特征提取层:使用默认 lr
    {'params': model.classifier.parameters(), 'lr': 1e-3} # 分类层:单独设置 lr
], lr=1e-2, momentum=0.9) # 默认学习率为 1e-2,momentum 对所有层都生效

总结

  • optimizer.zero_grad()必须loss.backward() 之前调用,防止梯度累加。
  • optimizer.step()必须loss.backward() 之后调用,执行参数更新。
  • 选择建议
    • 新手/通用 :直接用 Adam,省心且效果好。
    • 追求极致 :在图像分类等任务中,最后微调时尝试 SGD
    • 大模型 :使用 AdamW
相关推荐
Katecat9966310 小时前
基于sparse-rcnn_r50_fpn的冰球目标检测与识别系统改进与部署
人工智能·目标检测·计算机视觉
Katecat9966310 小时前
基于深度学习的虹膜识别与分类系统,结合tood_r50_fpn_anchor-based_1x_coco模型实现
人工智能·深度学习·分类
枕石 入梦10 小时前
Java 手写 AI Agent:ZenoAgent 实战笔记
人工智能·开源·agent·zenoagent
七夜zippoe10 小时前
模拟与存根实战:unittest.mock深度使用指南
linux·服务器·数据库·python·模拟·高级摸您
陈天伟教授10 小时前
人工智能应用- 人工智能交叉:06.解析蛋白质宇宙
人工智能·神经网络·算法·机器学习·推荐算法
踩坑记录10 小时前
leetcode hot100 17. 电话号码的字母组合 medium 递归回溯
python
hudawei99610 小时前
和豆包AI对话-什么是人类的理解
人工智能·人类的理解·人工智能的理解
BatmanWayne10 小时前
swift-微调补充
人工智能·swift
成都方航科技10 小时前
AI助力非机动车交通管理解决方案 AI摄像头劝导系统 成都方航科技有限公司
人工智能·科技
Brian-coder10 小时前
Swarm-Lab:多智能体实验平台
人工智能