《深度学习》—— 神经网络中的调整学习率

文章目录

一、什么是调整学习率?

  • 调整学习率(Adjusting Learning Rate)是在机器学习,特别是在深度学习中,对优化算法中的一个关键超参数进行动态调整的过程。学习率决定了在每一次参数更新时,参数变化的幅度大小。它是控制模型学习速度的一个重要因素。

  • 在训练神经网络时,学习率的选择至关重要。过高的学习率可能会导致模型在训练过程中产生震荡,甚至发散,无法收敛到最优解;而过低的学习率则会导致训练过程非常缓慢,需要更多的迭代次数才能达到较好的效果。

  • 因此,调整学习率的目标是在训练过程中找到一个合适的学习率,使得模型能够稳定且快速地收敛到最优解。这通常需要根据模型的训练情况、数据集的特性以及所使用的优化算法来动态调整学习率。

二、使用PyTorch中的库函数进行调整学习率

  • Pytorch学习率调整策略通过 torch.optim.lr_sheduler 接口实现。并提供3种调整方法:

    • 有序调整:等间隔调整(Step),多间隔调整(MultiStep),指数衰减(Exponential),余弦退火(CosineAnnealing);
    • 自适应调整:依训练状况伺机而变,通过监测某个指标的变化情况(loss、accuracy),当该指标不怎么变化时,就是调整学习率的时机(ReduceLROnPlateau);
    • 自定义调整:通过自定义关于epoch的lambda函数调整学习率(LambdaLR)
  • torch.optim.lr_sheduler 中有如下多种调整学习率的方法:

    python 复制代码
    import torch
    scheduler = torch.optim.lr_scheduler
    # 鼠标放在 lr_scheduler 上,按 CTRL 键可进入查看
    __all__ = ['LambdaLR', 'MultiplicativeLR', 'StepLR', 'MultiStepLR', 'ConstantLR', 'LinearLR',
               'ExponentialLR', 'SequentialLR', 'CosineAnnealingLR', 'ChainedScheduler', 'ReduceLROnPlateau',
               'CyclicLR', 'CosineAnnealingWarmRestarts', 'OneCycleLR', 'PolynomialLR']

三种常用的方法

1. StepLR

StepLR是一种等间隔调整学习率的方法。它按照预设的间隔(以epoch为单位)调整学习率,每次调整时将学习率乘以一个衰减因子(gamma)。

主要参数

  • step_size(int):学习率下降间隔数,即每经过多少个epoch后调整一次学习率。
  • gamma(float):学习率调整倍数,默认为0.1,即每次调整学习率时,新的学习率为lr = lr * gamma
  • last_epoch(int):上一个epoch数,用于指示学习率是否需要调整。当为-1时,学习率设置为初始值。

示例代码

python 复制代码
import torch
import torch.optim as optim
from torch.optim.lr_scheduler import StepLR

optimizer = optim.SGD(model.parameters(), lr=0.1)
scheduler = StepLR(optimizer, step_size=30, gamma=0.1)

for epoch in range(num_epochs):
    train(...)  # 训练模型
    test(...)   # 测试模型
    scheduler.step()  # 更新学习率

2. MultiStepLR

MultiStepLR允许用户按照给定的间隔列表(milestones)调整学习率。与StepLR不同,这里的间隔不是固定的,而是由用户自定义的一系列epoch值。

主要参数

  • milestones(list):一个列表,包含需要调整学习率的epoch数。
  • gamma(float):学习率调整倍数,与StepLR相同。
  • last_epoch(int):同上。

示例代码

python 复制代码
scheduler = MultiStepLR(optimizer, milestones=[30, 80, 120], gamma=0.1)

3. CosineAnnealingLR

CosineAnnealingLR采用余弦退火策略来调整学习率。学习率按照余弦函数周期性变化,在每个周期结束时重置为初始学习率,并在下一个周期中继续变化。

主要参数

  • T_max(int):学习率下降到最小值时的epoch数,即余弦函数周期的一半。
  • eta_min(float):学习率的最小值,默认为0。
  • last_epoch(int):同上。

示例代码

python 复制代码
scheduler = CosineAnnealingLR(optimizer, T_max=100, eta_min=0)

以上三种方法各有特点,适用于不同的训练场景。StepLRMultiStepLR适用于需要固定或自定义间隔调整学习率的场景,而CosineAnnealingLR则提供了一种更为平滑的学习率调整方式,有助于模型在训练过程中更好地探索参数空间。在实际应用中,可以根据具体任务和模型情况选择合适的方法。

相关推荐
2501_9181269138 分钟前
学习所有6502写游戏动画的语句
汇编·嵌入式硬件·学习·程序人生·游戏
-Springer-1 小时前
STM32 学习 —— 个人学习笔记9-3(FlyMcu 串口下载)
笔记·stm32·学习
weixin_458872612 小时前
东华复试OJ每日3题打卡·复盘103~105
学习
SuniaWang2 小时前
《Spring AI + 大模型全栈实战》学习手册系列 ·专题三:《Embedding 模型选型指南:从 MMTEB 排名到实际应用》
人工智能·学习·spring
问道飞鱼2 小时前
【Tauri框架学习】Windows 11 环境下 Tauri 开发环境安装与问题解决手册
windows·学习·tauri·开发环境
لا معنى له3 小时前
什么是Active Inference(主动推理)? ——学习笔记
笔记·学习
智算菩萨3 小时前
【How Far Are We From AGI】6 AGI的进化论——从胚胎到终极的三级跃迁与发展路线图
论文阅读·人工智能·深度学习·ai·agi
JicasdC123asd3 小时前
并行双分支瓶颈架构改进YOLOv26异构卷积核协同特征提取与残差学习双重突破
学习·yolo·架构
zhouping@3 小时前
JAVA学习笔记day06
java·笔记·学习
梦醒过后说珍重3 小时前
【超分实战】拒绝灾难性遗忘!记一次原生4K医疗影像(SurgiSR4K)的模型微调踩坑实录
深度学习