来自 千问
在 PyTorch 中,优化器 就像是一个"智能导航员"。它根据损失函数计算出的梯度(即"路况信息"),决定模型参数(权重)应该往哪个方向、以多大的步幅移动,才能最快地到达"损失最低"的目的地。
PyTorch 的优化器都封装在 torch.optim 模块中。
为什么要用优化器?
如果没有优化器,你需要手动写代码来更新每一个参数,非常繁琐且容易出错:
python
# 手动更新(不推荐)
w = w - learning_rate * w.grad
有了优化器,你只需要调用一行代码 optimizer.step(),它就能自动遍历模型中所有需要更新的参数,并根据设定的算法(如 SGD、Adam)完成更新。
核心用法:三步走
- 构建优化器:在训练前,告诉优化器它要管理哪些参数,以及学习率是多少。
- 清空梯度:在每次反向传播前,把上一轮计算的梯度清零。
- 更新参数:在反向传播计算出梯度后,让优化器执行更新。
常用优化器介绍与对比
| 优化器 | 全称 | 特点 | 适用场景 |
|---|---|---|---|
| SGD | 随机梯度下降 | 最基础,可加动量(Momentum) | 教学、简单任务、需要精细调参 |
| Adam | 自适应矩估计 | 最常用。自适应学习率,收敛快 | 默认推荐!90% 的场景都可用 |
| AdamW | Adam + 权重衰减 | Adam 的改进版,正则化效果更好 | 训练 Transformer 等大模型时首选 |
| RMSprop | 均方根传播 | 自适应学习率,适合非稳态目标 | RNN、GAN 等复杂模型 |
代码示例:完整训练流程
下面是一个使用 nn.Linear 模型和 Adam 优化器的完整示例:
python
import torch
import torch.nn as nn
import torch.optim as optim
# 1. 定义模型
model = nn.Linear(10, 1) # 简单线性模型
# 2. 定义优化器 (关键步骤)
# lr (learning_rate): 学习率,控制步长
optimizer = optim.Adam(model.parameters(), lr=0.001)
# 3. 定义损失函数
criterion = nn.MSELoss()
# --- 模拟训练循环 ---
# 模拟数据
inputs = torch.randn(32, 10) # 32个样本,10维特征
targets = torch.randn(32, 1) # 真实标签
for epoch in range(100):
# --- 训练四部曲 ---
# 1. 前向传播:计算预测值
outputs = model(inputs)
# 2. 计算损失
loss = criterion(outputs, targets)
# 3. 反向传播:计算梯度
# ⚠️ 在这之前,必须先清空上一轮的梯度!
optimizer.zero_grad() # 清空梯度
loss.backward() # 计算梯度 (此时梯度被存入 .grad 属性)
# 4. 更新参数:优化器执行更新
optimizer.step() # 核心:根据梯度更新参数
# 打印损失
if epoch % 20 == 0:
print(f"Epoch {epoch}, Loss: {loss.item():.4f}")
print("训练完成!")
进阶用法:为不同层设置不同学习率
在实际项目中(如迁移学习),你可能希望模型的某些部分学得快一点,某些部分学得慢一点。你可以通过传入参数组列表来实现:
python
# 假设 model 有两个部分:features 和 classifier
optimizer = optim.SGD([
{'params': model.features.parameters()}, # 特征提取层:使用默认 lr
{'params': model.classifier.parameters(), 'lr': 1e-3} # 分类层:单独设置 lr
], lr=1e-2, momentum=0.9) # 默认学习率为 1e-2,momentum 对所有层都生效
总结
optimizer.zero_grad():必须 在loss.backward()之前调用,防止梯度累加。optimizer.step():必须 在loss.backward()之后调用,执行参数更新。- 选择建议 :
- 新手/通用 :直接用
Adam,省心且效果好。 - 追求极致 :在图像分类等任务中,最后微调时尝试
SGD。 - 大模型 :使用
AdamW。
- 新手/通用 :直接用