文章目录
项目背景
在之前的实战中,我们搭建了一个基础的图像分类模型,用的是经典的ResNet架构和CIFAR-10数据集。模型跑起来了,准确率也达到了一个"能用"的水平,大概是75%左右。但说实话,这个成绩离"优秀"还差得远。我当时的直觉是,模型架构没问题,数据也预处理了,那问题大概率出在那些我拍脑袋决定的"超参数"上------比如学习率我随手设了个0.001,优化器选了最常用的Adam,Batch Size设了64。
这些参数不像模型权重那样可以通过训练自动学习,需要我们手动设定。它们对模型性能的影响巨大,一个不合适的学习率能让训练直接崩掉,或者陷入局部最优。这次实战的目标,就是系统性地为我们的模型找到一组更优的超参数组合,把准确率再往上提一提。这个过程,我们称之为"超参数调优"。
技术选型
面对超参数调优,主要有几种"武器":手动调参、网格搜索、随机搜索和贝叶斯优化。
- 手动调参:靠经验和直觉,效率低,不系统,适合参数很少或初期快速验证。
- 网格搜索:最"暴力"也最直观,把每个参数的候选值列出来,穷举所有组合。优点是简单、全面,一定能找到搜索范围内的最优组合。缺点是计算成本极高,参数越多,组合数呈指数级增长。
- 随机搜索:不再穷举,而是在参数空间里随机采样一定数量的组合进行尝试。根据论文《Random Search for Hyper-Parameter Optimization》的结论,在高维参数空间中,随机搜索往往比网格搜索更高效,因为它有更多机会探索到那些对性能影响更大的关键参数的不同值。
- 贝叶斯优化:更高级的方法,它基于已经尝试过的组合结果,构建一个概率模型,来预测下一个最有可能带来提升的参数点。效率最高,但实现也相对复杂。
我们的选择 :对于这次从0到1的实战,我决定同时演示网格搜索 和随机搜索 。原因有三:1)它们都是最基础、最常用的方法,理解它们对后续学习更高级的调优方法至关重要;2)通过对比,你能直观感受到两者在效率和效果上的差异;3)使用scikit-learn库可以非常方便地实现它们,集成到我们的PyTorch训练流程中。
我们将围绕学习率 、优化器类型 和批大小这三个核心超参数进行调优。
架构设计
我们的调优系统架构需要清晰地将"参数搜索逻辑"与"模型训练评估逻辑"解耦。这样,无论搜索算法如何变化,训练部分代码都不需要改动。
- 参数生成器 :由网格搜索(
GridSearchCV)或随机搜索(RandomizedSearchCV)负责。它们根据我们定义的参数分布,生成一组组具体的超参数组合。 - 训练与评估单元:这是一个黑盒子。它接收一组具体的超参数,初始化模型、优化器,执行完整的训练和验证流程,并最终返回一个代表模型性能的分数(如验证集准确率)。
- 协调控制器:搜索算法(网格/随机)负责调用训练单元,传入不同的参数组合,收集性能分数,并最终比较出最优的那一组参数。
我们将利用scikit-learn的GridSearchCV和RandomizedSearchCV,它们完美实现了上述架构。我们需要做的,就是按照它的接口要求,封装好我们的PyTorch模型训练过程。
核心实现
首先,安装必要的库:pip install scikit-learn。
第一步:封装训练评估过程
我们需要创建一个函数,这个函数接收一组超参数,返回一个交叉验证的分数。这里为了演示效率,我们使用单次验证集而非K折交叉验证。
python
import numpy as np
import torch
import torch.nn as nn
import torch.optim as optim
from torch.utils.data import DataLoader
from torchvision import datasets, transforms, models
from sklearn.model_selection import GridSearchCV, RandomizedSearchCV
from sklearn.base import BaseEstimator, ClassifierMixin
# 定义一个sklearn兼容的估计器类
class TorchResNetEstimator(BaseEstimator, ClassifierMixin):
def __init__(self, lr=0.001, optimizer='adam', batch_size=64, epochs=5, device='cuda'):
# 这些就是我们要调优的超参数
self.lr = lr
self.optimizer_name = optimizer
self.batch_size = batch_size
self.epochs = epochs
self.device = device if torch.cuda.is_available() else 'cpu'
self.model = None
self.criterion = nn.CrossEntropyLoss()
def fit(self, X, y=None):
# 注意:这里为了适配sklearn接口,X,y是数据集。我们实际使用内部数据加载器。
# 我们重写此方法,但主要训练逻辑在 _train 中
return self
def _train(self):
"""内部训练方法,返回验证集准确率"""
# 1. 数据加载 (使用CIFAR-10)
transform = transforms.Compose([
transforms.ToTensor(),
transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))
])
train_dataset = datasets.CIFAR10(root='./data', train=True, download=True, transform=transform)
val_dataset = datasets.CIFAR10(root='./data', train=False, download=True, transform=transform)
train_loader = DataLoader(train_dataset, batch_size=self.batch_size, shuffle=True)
val_loader = DataLoader(val_dataset, batch_size=self.batch_size, shuffle=False)
# 2. 模型初始化
self.model = models.resnet18(pretrained=False, num_classes=10)
self.model.to(self.device)
# 3. 优化器设置
if self.optimizer_name.lower() == 'adam':
optimizer = optim.Adam(self.model.parameters(), lr=self.lr)
elif self.optimizer_name.lower() == 'sgd':
optimizer = optim.SGD(self.model.parameters(), lr=self.lr, momentum=0.9)
else:
raise ValueError(f"Unsupported optimizer: {self.optimizer_name}")
# 4. 训练循环
for epoch in range(self.epochs):
self.model.train()
for images, labels in train_loader:
images, labels = images.to(self.device), labels.to(self.device)
optimizer.zero_grad()
outputs = self.model(images)
loss = self.criterion(outputs, labels)
loss.backward()
optimizer.step()
# 5. 验证评估
self.model.eval()
correct = 0
total = 0
with torch.no_grad():
for images, labels in val_loader:
images, labels = images.to(self.device), labels.to(self.device)
outputs = self.model(images)
_, predicted = torch.max(outputs.data, 1)
total += labels.size(0)
correct += (predicted == labels).sum().item()
val_accuracy = correct / total
return val_accuracy
def score(self, X=None, y=None):
"""sklearn要求的方法,用于评估。我们返回验证准确率。"""
# 忽略传入的X,y,使用我们自己的验证集
accuracy = self._train()
return accuracy
第二步:定义搜索空间并执行搜索
python
# 实例化我们的估计器
base_estimator = TorchResNetEstimator(epochs=3) # 为了调优速度,每个组合只训练3轮
# 定义网格搜索的参数网格
param_grid = {
'lr': [0.1, 0.01, 0.001, 0.0001], # 学习率,跨度较大
'optimizer': ['adam', 'sgd'],
'batch_size': [32, 64, 128]
}
print("开始网格搜索...")
grid_search = GridSearchCV(estimator=base_estimator,
param_grid=param_grid,
scoring='accuracy',
cv=2, # 使用2折交叉验证,更可靠但更慢。这里设为2演示。
n_jobs=1, # PyTorch多进程支持可能有问题,先设为1
verbose=3) # 输出详细日志
# 注意:由于我们的估计器内部使用了固定数据,这里传入虚拟X,y
grid_search.fit(np.zeros((1,1)), np.zeros((1,)))
print("\n网格搜索最佳参数:", grid_search.best_params_)
print("网格搜索最佳得分:", grid_search.best_score_)
# 定义随机搜索的参数分布
from scipy.stats import loguniform # 用于对数均匀分布采样学习率
param_dist = {
'lr': loguniform(1e-4, 1e-1), # 在0.0001到0.1之间对数均匀采样
'optimizer': ['adam', 'sgd'],
'batch_size': [32, 64, 128]
}
print("\n开始随机搜索...")
random_search = RandomizedSearchCV(estimator=base_estimator,
param_distributions=param_dist,
n_iter=10, # 随机尝试10组参数,与网格搜索(4*2*3=24)次对比
scoring='accuracy',
cv=2,
n_jobs=1,
verbose=3,
random_state=42) # 固定随机种子,确保结果可复现
random_search.fit(np.zeros((1,1)), np.zeros((1,)))
print("\n随机搜索最佳参数:", random_search.best_params_)
print("随机搜索最佳得分:", random_search.best_score_)
踩坑记录
n_jobs> 1 与 PyTorch/CUDA 的冲突 :这是个大坑!如果你设置n_jobs并行运行多个训练任务,多个进程可能会同时尝试使用同一块GPU,导致CUDA内存错误或进程死锁。解决方案 :在调优阶段,稳妥起见,设置n_jobs=1。如果想并行,可以考虑使用joblib与torch的特定后端,或者对每个任务进行严格的GPU设备隔离,但这会复杂很多。- 估计器状态污染 :我们的
TorchResNetEstimator在每次score()调用时都会重新训练模型。但如果不在__init__中完全重置模型状态,可能会产生意想不到的干扰。我们通过在_train方法中每次都重新初始化模型来解决。 - 训练时间爆炸 :网格搜索的组合数是乘积关系。我一开始把学习率候选设为
[0.1, 0.05, 0.01, 0.005, 0.001],优化器加了'RMSprop',Batch Size加了[16, 32, 64, 128],结果组合数达到53 4=60个。每个训练3轮,总共180个epoch,耗时过长。解决方案 :先进行粗调,用较少的候选值和随机搜索(n_iter较小)缩小范围,再进行精细搜索。 - 评估指标的选择 :我们使用了验证集准确率。但对于类别不平衡的数据集,准确率可能不是好指标。解决方案 :根据实际问题,在
scoring参数中选择'f1','roc_auc'等更合适的指标。
效果对比
运行完上述代码后,我得到了类似以下的结果(具体数值因随机性会有波动):
-
网格搜索:
- 最佳参数:
{'batch_size': 64, 'lr': 0.01, 'optimizer': 'adam'} - 最佳验证准确率:~78.5%
- 总尝试组合数:24个
- 总耗时:约 24 * (3 epoch训练时间)
- 最佳参数:
-
随机搜索 (
n_iter=10):- 最佳参数:
{'batch_size': 128, 'lr': 0.0072, 'optimizer': 'sgd'}(学习率是采样得到的) - 最佳验证准确率:~79.1%
- 总尝试组合数:10个
- 总耗时:约 10 * (3 epoch训练时间)
- 最佳参数:
对比分析:
- 效率:随机搜索只尝试了10组参数,耗时不到网格搜索的一半,却找到了准确率更高的组合。这印证了随机搜索在高维空间的高效性。
- 结果 :随机搜索找到的最佳学习率是0.0072,这是一个在网格搜索的固定候选值
[0.1, 0.01, 0.001, 0.0001]中不存在的"中间值",这恰恰是随机搜索的优势------能探索更连续的空间。 - 实践建议 :当超参数超过3个,且某些参数是连续值时,优先使用随机搜索 。你可以先用较大的
n_iter(比如50)进行粗扫,锁定性能较好的区域,然后在该区域附近用小步长的网格搜索进行微调,结合两者优势。
通过这次系统性的调优,我们成功将模型的验证准确率从75%左右提升到了接近79%,证明了超参数调优的价值。记住,没有"放之四海而皆准"的最优参数,只有针对你当前数据、模型和任务的"更优"参数。
如有问题欢迎评论区交流,持续更新中...