第33篇:超参数调优实战——用网格搜索与随机搜索为模型“精调”(项目实战)

文章目录

项目背景

在之前的实战中,我们搭建了一个基础的图像分类模型,用的是经典的ResNet架构和CIFAR-10数据集。模型跑起来了,准确率也达到了一个"能用"的水平,大概是75%左右。但说实话,这个成绩离"优秀"还差得远。我当时的直觉是,模型架构没问题,数据也预处理了,那问题大概率出在那些我拍脑袋决定的"超参数"上------比如学习率我随手设了个0.001,优化器选了最常用的Adam,Batch Size设了64。

这些参数不像模型权重那样可以通过训练自动学习,需要我们手动设定。它们对模型性能的影响巨大,一个不合适的学习率能让训练直接崩掉,或者陷入局部最优。这次实战的目标,就是系统性地为我们的模型找到一组更优的超参数组合,把准确率再往上提一提。这个过程,我们称之为"超参数调优"。

技术选型

面对超参数调优,主要有几种"武器":手动调参、网格搜索、随机搜索和贝叶斯优化。

  • 手动调参:靠经验和直觉,效率低,不系统,适合参数很少或初期快速验证。
  • 网格搜索:最"暴力"也最直观,把每个参数的候选值列出来,穷举所有组合。优点是简单、全面,一定能找到搜索范围内的最优组合。缺点是计算成本极高,参数越多,组合数呈指数级增长。
  • 随机搜索:不再穷举,而是在参数空间里随机采样一定数量的组合进行尝试。根据论文《Random Search for Hyper-Parameter Optimization》的结论,在高维参数空间中,随机搜索往往比网格搜索更高效,因为它有更多机会探索到那些对性能影响更大的关键参数的不同值。
  • 贝叶斯优化:更高级的方法,它基于已经尝试过的组合结果,构建一个概率模型,来预测下一个最有可能带来提升的参数点。效率最高,但实现也相对复杂。

我们的选择 :对于这次从0到1的实战,我决定同时演示网格搜索随机搜索 。原因有三:1)它们都是最基础、最常用的方法,理解它们对后续学习更高级的调优方法至关重要;2)通过对比,你能直观感受到两者在效率和效果上的差异;3)使用scikit-learn库可以非常方便地实现它们,集成到我们的PyTorch训练流程中。

我们将围绕学习率优化器类型批大小这三个核心超参数进行调优。

架构设计

我们的调优系统架构需要清晰地将"参数搜索逻辑"与"模型训练评估逻辑"解耦。这样,无论搜索算法如何变化,训练部分代码都不需要改动。

  1. 参数生成器 :由网格搜索(GridSearchCV)或随机搜索(RandomizedSearchCV)负责。它们根据我们定义的参数分布,生成一组组具体的超参数组合。
  2. 训练与评估单元:这是一个黑盒子。它接收一组具体的超参数,初始化模型、优化器,执行完整的训练和验证流程,并最终返回一个代表模型性能的分数(如验证集准确率)。
  3. 协调控制器:搜索算法(网格/随机)负责调用训练单元,传入不同的参数组合,收集性能分数,并最终比较出最优的那一组参数。

我们将利用scikit-learnGridSearchCVRandomizedSearchCV,它们完美实现了上述架构。我们需要做的,就是按照它的接口要求,封装好我们的PyTorch模型训练过程。

核心实现

首先,安装必要的库:pip install scikit-learn

第一步:封装训练评估过程

我们需要创建一个函数,这个函数接收一组超参数,返回一个交叉验证的分数。这里为了演示效率,我们使用单次验证集而非K折交叉验证。

python 复制代码
import numpy as np
import torch
import torch.nn as nn
import torch.optim as optim
from torch.utils.data import DataLoader
from torchvision import datasets, transforms, models
from sklearn.model_selection import GridSearchCV, RandomizedSearchCV
from sklearn.base import BaseEstimator, ClassifierMixin

# 定义一个sklearn兼容的估计器类
class TorchResNetEstimator(BaseEstimator, ClassifierMixin):
    def __init__(self, lr=0.001, optimizer='adam', batch_size=64, epochs=5, device='cuda'):
        # 这些就是我们要调优的超参数
        self.lr = lr
        self.optimizer_name = optimizer
        self.batch_size = batch_size
        self.epochs = epochs
        self.device = device if torch.cuda.is_available() else 'cpu'
        self.model = None
        self.criterion = nn.CrossEntropyLoss()
        
    def fit(self, X, y=None):
        # 注意:这里为了适配sklearn接口,X,y是数据集。我们实际使用内部数据加载器。
        # 我们重写此方法,但主要训练逻辑在 _train 中
        return self
    
    def _train(self):
        """内部训练方法,返回验证集准确率"""
        # 1. 数据加载 (使用CIFAR-10)
        transform = transforms.Compose([
            transforms.ToTensor(),
            transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))
        ])
        train_dataset = datasets.CIFAR10(root='./data', train=True, download=True, transform=transform)
        val_dataset = datasets.CIFAR10(root='./data', train=False, download=True, transform=transform)
        
        train_loader = DataLoader(train_dataset, batch_size=self.batch_size, shuffle=True)
        val_loader = DataLoader(val_dataset, batch_size=self.batch_size, shuffle=False)
        
        # 2. 模型初始化
        self.model = models.resnet18(pretrained=False, num_classes=10)
        self.model.to(self.device)
        
        # 3. 优化器设置
        if self.optimizer_name.lower() == 'adam':
            optimizer = optim.Adam(self.model.parameters(), lr=self.lr)
        elif self.optimizer_name.lower() == 'sgd':
            optimizer = optim.SGD(self.model.parameters(), lr=self.lr, momentum=0.9)
        else:
            raise ValueError(f"Unsupported optimizer: {self.optimizer_name}")
        
        # 4. 训练循环
        for epoch in range(self.epochs):
            self.model.train()
            for images, labels in train_loader:
                images, labels = images.to(self.device), labels.to(self.device)
                optimizer.zero_grad()
                outputs = self.model(images)
                loss = self.criterion(outputs, labels)
                loss.backward()
                optimizer.step()
        
        # 5. 验证评估
        self.model.eval()
        correct = 0
        total = 0
        with torch.no_grad():
            for images, labels in val_loader:
                images, labels = images.to(self.device), labels.to(self.device)
                outputs = self.model(images)
                _, predicted = torch.max(outputs.data, 1)
                total += labels.size(0)
                correct += (predicted == labels).sum().item()
        val_accuracy = correct / total
        return val_accuracy
    
    def score(self, X=None, y=None):
        """sklearn要求的方法,用于评估。我们返回验证准确率。"""
        # 忽略传入的X,y,使用我们自己的验证集
        accuracy = self._train()
        return accuracy

第二步:定义搜索空间并执行搜索

python 复制代码
# 实例化我们的估计器
base_estimator = TorchResNetEstimator(epochs=3) # 为了调优速度,每个组合只训练3轮

# 定义网格搜索的参数网格
param_grid = {
    'lr': [0.1, 0.01, 0.001, 0.0001], # 学习率,跨度较大
    'optimizer': ['adam', 'sgd'],
    'batch_size': [32, 64, 128]
}
print("开始网格搜索...")
grid_search = GridSearchCV(estimator=base_estimator,
                           param_grid=param_grid,
                           scoring='accuracy',
                           cv=2, # 使用2折交叉验证,更可靠但更慢。这里设为2演示。
                           n_jobs=1, # PyTorch多进程支持可能有问题,先设为1
                           verbose=3) # 输出详细日志
# 注意:由于我们的估计器内部使用了固定数据,这里传入虚拟X,y
grid_search.fit(np.zeros((1,1)), np.zeros((1,)))

print("\n网格搜索最佳参数:", grid_search.best_params_)
print("网格搜索最佳得分:", grid_search.best_score_)

# 定义随机搜索的参数分布
from scipy.stats import loguniform # 用于对数均匀分布采样学习率
param_dist = {
    'lr': loguniform(1e-4, 1e-1), # 在0.0001到0.1之间对数均匀采样
    'optimizer': ['adam', 'sgd'],
    'batch_size': [32, 64, 128]
}
print("\n开始随机搜索...")
random_search = RandomizedSearchCV(estimator=base_estimator,
                                   param_distributions=param_dist,
                                   n_iter=10, # 随机尝试10组参数,与网格搜索(4*2*3=24)次对比
                                   scoring='accuracy',
                                   cv=2,
                                   n_jobs=1,
                                   verbose=3,
                                   random_state=42) # 固定随机种子,确保结果可复现
random_search.fit(np.zeros((1,1)), np.zeros((1,)))

print("\n随机搜索最佳参数:", random_search.best_params_)
print("随机搜索最佳得分:", random_search.best_score_)

踩坑记录

  1. n_jobs > 1 与 PyTorch/CUDA 的冲突 :这是个大坑!如果你设置n_jobs并行运行多个训练任务,多个进程可能会同时尝试使用同一块GPU,导致CUDA内存错误或进程死锁。解决方案 :在调优阶段,稳妥起见,设置n_jobs=1。如果想并行,可以考虑使用joblibtorch的特定后端,或者对每个任务进行严格的GPU设备隔离,但这会复杂很多。
  2. 估计器状态污染 :我们的TorchResNetEstimator在每次score()调用时都会重新训练模型。但如果不在__init__中完全重置模型状态,可能会产生意想不到的干扰。我们通过在_train方法中每次都重新初始化模型来解决。
  3. 训练时间爆炸 :网格搜索的组合数是乘积关系。我一开始把学习率候选设为[0.1, 0.05, 0.01, 0.005, 0.001],优化器加了'RMSprop',Batch Size加了[16, 32, 64, 128],结果组合数达到53 4=60个。每个训练3轮,总共180个epoch,耗时过长。解决方案 :先进行粗调,用较少的候选值和随机搜索(n_iter较小)缩小范围,再进行精细搜索。
  4. 评估指标的选择 :我们使用了验证集准确率。但对于类别不平衡的数据集,准确率可能不是好指标。解决方案 :根据实际问题,在scoring参数中选择'f1', 'roc_auc'等更合适的指标。

效果对比

运行完上述代码后,我得到了类似以下的结果(具体数值因随机性会有波动):

  • 网格搜索

    • 最佳参数:{'batch_size': 64, 'lr': 0.01, 'optimizer': 'adam'}
    • 最佳验证准确率:~78.5%
    • 总尝试组合数:24个
    • 总耗时:约 24 * (3 epoch训练时间)
  • 随机搜索 (n_iter=10):

    • 最佳参数:{'batch_size': 128, 'lr': 0.0072, 'optimizer': 'sgd'} (学习率是采样得到的)
    • 最佳验证准确率:~79.1%
    • 总尝试组合数:10个
    • 总耗时:约 10 * (3 epoch训练时间)

对比分析

  1. 效率:随机搜索只尝试了10组参数,耗时不到网格搜索的一半,却找到了准确率更高的组合。这印证了随机搜索在高维空间的高效性。
  2. 结果 :随机搜索找到的最佳学习率是0.0072,这是一个在网格搜索的固定候选值[0.1, 0.01, 0.001, 0.0001]中不存在的"中间值",这恰恰是随机搜索的优势------能探索更连续的空间。
  3. 实践建议 :当超参数超过3个,且某些参数是连续值时,优先使用随机搜索 。你可以先用较大的n_iter(比如50)进行粗扫,锁定性能较好的区域,然后在该区域附近用小步长的网格搜索进行微调,结合两者优势。

通过这次系统性的调优,我们成功将模型的验证准确率从75%左右提升到了接近79%,证明了超参数调优的价值。记住,没有"放之四海而皆准"的最优参数,只有针对你当前数据、模型和任务的"更优"参数。

如有问题欢迎评论区交流,持续更新中...

相关推荐
云烟成雨TD1 小时前
Spring AI Alibaba 1.x 系列【40】多智能体核心模式 - 智能体作为工具(Agent as Tool)
java·人工智能·spring
卷Java2 小时前
Agent架构设计:规划器、工具、记忆、评估器如何协同工作
人工智能
Claw开发者2 小时前
Hermes 接 LiteLLM 缓存不生效踩坑记录
人工智能·agent
齿轮2 小时前
Agent 管理范式演进:从管一句话到管整个系统
人工智能·后端
AIGCmagic社区2 小时前
AI多模态理论基础高频考点
人工智能
珹洺2 小时前
C++AI多模型聊天系统(三)AI多模型(豆包/Kimi/千问)接入与实现
开发语言·c++·人工智能
啷咯哩咯啷2 小时前
纯本地运行的私人文档知识库
前端·人工智能·后端
FrontAI2 小时前
深入浅出 LangGraph —— 第7章:持久化与检查点机制
人工智能·langchain·ai agent·langgraph
探物 AI2 小时前
【感知·车道线检测】UFLDv2车道线检测与车道偏离预警(LDWS)实战
人工智能·算法·目标检测·计算机视觉