Pytorch中的优化器及其用法

来自 千问

在 PyTorch 中,优化器 就像是一个"智能导航员"。它根据损失函数计算出的梯度(即"路况信息"),决定模型参数(权重)应该往哪个方向、以多大的步幅移动,才能最快地到达"损失最低"的目的地。

PyTorch 的优化器都封装在 torch.optim 模块中。

为什么要用优化器?

如果没有优化器,你需要手动写代码来更新每一个参数,非常繁琐且容易出错:

python 复制代码
# 手动更新(不推荐)
w = w - learning_rate * w.grad

有了优化器,你只需要调用一行代码 optimizer.step(),它就能自动遍历模型中所有需要更新的参数,并根据设定的算法(如 SGD、Adam)完成更新。

核心用法:三步走

  1. 构建优化器:在训练前,告诉优化器它要管理哪些参数,以及学习率是多少。
  2. 清空梯度:在每次反向传播前,把上一轮计算的梯度清零。
  3. 更新参数:在反向传播计算出梯度后,让优化器执行更新。

常用优化器介绍与对比

优化器 全称 特点 适用场景
SGD 随机梯度下降 最基础,可加动量(Momentum) 教学、简单任务、需要精细调参
Adam 自适应矩估计 最常用。自适应学习率,收敛快 默认推荐!90% 的场景都可用
AdamW Adam + 权重衰减 Adam 的改进版,正则化效果更好 训练 Transformer 等大模型时首选
RMSprop 均方根传播 自适应学习率,适合非稳态目标 RNN、GAN 等复杂模型

代码示例:完整训练流程

下面是一个使用 nn.Linear 模型和 Adam 优化器的完整示例:

python 复制代码
import torch
import torch.nn as nn
import torch.optim as optim

# 1. 定义模型
model = nn.Linear(10, 1)  # 简单线性模型

# 2. 定义优化器 (关键步骤)
# lr (learning_rate): 学习率,控制步长
optimizer = optim.Adam(model.parameters(), lr=0.001)

# 3. 定义损失函数
criterion = nn.MSELoss()

# --- 模拟训练循环 ---
# 模拟数据
inputs = torch.randn(32, 10)  # 32个样本,10维特征
targets = torch.randn(32, 1)   # 真实标签

for epoch in range(100):
    # --- 训练四部曲 ---
    
    # 1. 前向传播:计算预测值
    outputs = model(inputs)
    
    # 2. 计算损失
    loss = criterion(outputs, targets)
    
    # 3. 反向传播:计算梯度
    # ⚠️ 在这之前,必须先清空上一轮的梯度!
    optimizer.zero_grad()   # 清空梯度
    loss.backward()        # 计算梯度 (此时梯度被存入 .grad 属性)
    
    # 4. 更新参数:优化器执行更新
    optimizer.step()       # 核心:根据梯度更新参数
    
    # 打印损失
    if epoch % 20 == 0:
        print(f"Epoch {epoch}, Loss: {loss.item():.4f}")

print("训练完成!")

进阶用法:为不同层设置不同学习率

在实际项目中(如迁移学习),你可能希望模型的某些部分学得快一点,某些部分学得慢一点。你可以通过传入参数组列表来实现:

python 复制代码
# 假设 model 有两个部分:features 和 classifier
optimizer = optim.SGD([
    {'params': model.features.parameters()},           # 特征提取层:使用默认 lr
    {'params': model.classifier.parameters(), 'lr': 1e-3} # 分类层:单独设置 lr
], lr=1e-2, momentum=0.9) # 默认学习率为 1e-2,momentum 对所有层都生效

总结

  • optimizer.zero_grad()必须loss.backward() 之前调用,防止梯度累加。
  • optimizer.step()必须loss.backward() 之后调用,执行参数更新。
  • 选择建议
    • 新手/通用 :直接用 Adam,省心且效果好。
    • 追求极致 :在图像分类等任务中,最后微调时尝试 SGD
    • 大模型 :使用 AdamW
相关推荐
带娃的IT创业者10 小时前
Python 异步编程完全指南:从入门到精通
服务器·开发语言·python·最佳实践·asyncio·异步编程
mCell12 小时前
关于 Openclaw,最近的一点思考。
人工智能·安全·aigc
qq_1715388513 小时前
纳采问名定佳期:中国传统订婚文化的千年传承与地域风华
人工智能
zzb158013 小时前
RAG from Scratch-优化-query
java·数据库·人工智能·后端·spring·mybatis
uzong13 小时前
315晚会曝光“AI大模型被投毒”,让AI听话,GEO是什么,带给我们什么思考
人工智能
V搜xhliang024613 小时前
机器人建模(URDF)与仿真配置
大数据·人工智能·深度学习·机器学习·自然语言处理·机器人
房产中介行业研习社13 小时前
2026年3月哪些房源管理系统功能全
大数据·运维·人工智能
Shining059613 小时前
CUDA 编程系列(三)《内存模型与规约优化》
人工智能·学习·其他·学习方法·infinitensor
朱包林13 小时前
Python基础
linux·开发语言·ide·python·visualstudio·github·visual studio
lisw0513 小时前
基于图像的恶意软件分类方法!
人工智能·机器学习