4.5 优化器中常见的梯度下降算法

梯度下降算法(Gradient Descent)的数学公式可以通过以下步骤严格表达:


1. 基本梯度下降(Batch Gradient Descent)

目标 :最小化损失函数L(θ)\mathcal{L}(\theta)L(θ),其中 θ\thetaθ是模型参数。
参数更新规则 : θt+1=θt−η⋅∇θL(θt)\theta_{t+1} = \theta_t - \eta \cdot \nabla_\theta \mathcal{L}(\theta_t)θt+1=θt−η⋅∇θL(θt)

  • θt\theta_tθt:第 t 次迭代的参数值
  • η\etaη:学习率(Learning Rate)
  • ∇θL(θt)\nabla_\theta \mathcal{L}(\theta_t)∇θL(θt):损失函数对参数 θ\thetaθ的梯度(所有训练样本的平均梯度)。

2. 随机梯度下降(Stochastic Gradient Descent, SGD)

每次迭代随机选取一个样本 计算梯度:
θt+1=θt−η⋅∇θL(θt;xi,yi)\theta_{t+1} = \theta_t - \eta \cdot \nabla_\theta \mathcal{L}(\theta_t; x_i, y_i)θt+1=θt−η⋅∇θL(θt;xi,yi)

  • ∇θL(θt;xi,yi)\nabla_\theta \mathcal{L}(\theta_t; x_i, y_i)∇θL(θt;xi,yi):仅基于单个样本 (xi,yi)(x_i, y_i)(xi,yi)的梯度。

3. 小批量梯度下降(Mini-Batch Gradient Descent)

每次迭代使用一个小批量(Batch)数据计算梯度:

θt+1=θt−η⋅1B∑i=1B∇θL(θt;xi,yi)\theta_{t+1} = \theta_t - \eta \cdot \frac{1}{B} \sum_{i=1}^B \nabla_\theta \mathcal{L}(\theta_t; x_i, y_i)θt+1=θt−η⋅B1∑i=1B∇θL(θt;xi,yi)

  • BBB:批量大小(Batch Size)
  • 1B∑i=1B∇θL\frac{1}{B} \sum_{i=1}^B \nabla_\theta \mathcal{L}B1∑i=1B∇θL:批量内样本梯度的平均值。

4. 带动量的梯度下降(Momentum)

引入动量项 vtv_tvt加速收敛并减少震荡:

vt+1=βvt+(1−β)∇θL(θt)v_{t+1} = \beta v_t + (1-\beta) \nabla_\theta \mathcal{L}(\theta_t)vt+1=βvt+(1−β)∇θL(θt)
θt+1=θt−η⋅vt+1\theta_{t+1} = \theta_t - \eta \cdot v_{t+1}θt+1=θt−η⋅vt+1

  • β\betaβ:动量系数(通常设为 0.9),控制历史梯度的影响。

5. Adam 优化器

结合动量(一阶矩)和自适应学习率(二阶矩),并引入偏差修正:

mt+1=β1mt+(1−β1)∇θL(θt)(一阶矩估计)m_{t+1} = \beta_1 m_t + (1-\beta_1) \nabla_\theta \mathcal{L}(\theta_t) \quad \text{(一阶矩估计)}mt+1=β1mt+(1−β1)∇θL(θt)(一阶矩估计)
vt+1=β2vt+(1−β2)(∇θL(θt))2(二阶矩估计)v_{t+1} = \beta_2 v_t + (1-\beta_2) \left( \nabla_\theta \mathcal{L}(\theta_t) \right)^2 \quad \text{(二阶矩估计)}vt+1=β2vt+(1−β2)(∇θL(θt))2(二阶矩估计)
m^t+1=mt+11−β1t+1(一阶矩偏差修正)\hat{m}{t+1} = \frac{m{t+1}}{1 - \beta_1^{t+1}} \quad \text{(一阶矩偏差修正)}m^t+1=1−β1t+1mt+1(一阶矩偏差修正)
v^t+1=vt+11−β2t+1(二阶矩偏差修正)\hat{v}{t+1} = \frac{v{t+1}}{1 - \beta_2^{t+1}} \quad \text{(二阶矩偏差修正)}v^t+1=1−β2t+1vt+1(二阶矩偏差修正)
θt+1=θt−η⋅m^t+1v^t+1+ϵ\theta_{t+1} = \theta_t - \eta \cdot \frac{\hat{m}{t+1}}{\sqrt{\hat{v}{t+1}} + \epsilon}θt+1=θt−η⋅v^t+1 +ϵm^t+1

  • β1,β2\beta_1, \beta_2β1,β2:衰减率(通常设为 0.9 和 0.999)
  • ϵ\epsilonϵ:数值稳定性常数(通常设为10\^{-8} )。

6. 梯度下降的数学意义

梯度下降的更新方向由 负梯度方向 −∇θL-\nabla_\theta \mathcal{L}−∇θL决定,其本质是沿着损失函数曲面的最速下降方向移动参数 θ\thetaθ。学习率 η\etaη控制步长,过大可能导致震荡,过小则收敛缓慢。


公式总结表

算法 公式
批量梯度下降 θt+1=θt−η⋅∇θL\theta_{t+1} = \theta_t - \eta \cdot \nabla_\theta \mathcal{L}θt+1=θt−η⋅∇θL
随机梯度下降 θt+1=θt−η⋅∇θL(xi,yi)\theta_{t+1} = \theta_t - \eta \cdot \nabla_\theta \mathcal{L}(x_i, y_i)θt+1=θt−η⋅∇θL(xi,yi)
小批量梯度下降 θt+1=θt−η⋅1B∑i=1B∇θL(xi,yi)\theta_{t+1} = \theta_t - \eta \cdot \frac{1}{B} \sum_{i=1}^B \nabla_\theta \mathcal{L}(x_i, y_i)θt+1=θt−η⋅B1∑i=1B∇θL(xi,yi)
Momentum vt+1=βvt+(1−β)∇θL),(θt+1=θt−ηvt+1v_{t+1} = \beta v_t + (1-\beta)\nabla_\theta \mathcal{L} ),( \theta_{t+1} = \theta_t - \eta v_{t+1}vt+1=βvt+(1−β)∇θL),(θt+1=θt−ηvt+1
Adam θt+1=θt−η⋅m^t+1v^t+1+ϵ\theta_{t+1} = \theta_t - \eta \cdot \frac{\hat{m}{t+1}}{\sqrt{\hat{v}{t+1}} + \epsilon}θt+1=θt−η⋅v^t+1 +ϵm^t+1

关键点

  1. 梯度方向:负梯度方向是函数值下降最快的方向(由泰勒展开的一阶近似可得)。
  2. 学习率选择:学习率 \\eta 需通过实验调参(或使用自适应方法如 Adam)。
  3. 收敛性:在凸函数中,梯度下降收敛到全局最优;在非凸函数中可能收敛到局部极小或鞍点。
  4. 复杂度:批量梯度下降计算成本高,小批量/随机梯度下降更适合大规模数据。

通过上述公式,梯度下降算法被严格地数学化,成为深度学习模型优化的基础工具。

相关推荐
朝朝又沐沐4 小时前
算法竞赛阶段二-数据结构(36)数据结构双向链表模拟实现
开发语言·数据结构·c++·算法·链表
Ronin-Lotus4 小时前
深度学习篇---剪裁&缩放
图像处理·人工智能·缩放·剪裁
cpsvps4 小时前
3D芯片香港集成:技术突破与产业机遇全景分析
人工智能·3d
薰衣草23334 小时前
一天两道力扣(6)
算法·leetcode
剪一朵云爱着4 小时前
力扣946. 验证栈序列
算法·
遇见尚硅谷5 小时前
C语言:*p++与p++有何区别
c语言·开发语言·笔记·学习·算法
国科安芯5 小时前
抗辐照芯片在低轨卫星星座CAN总线通讯及供电系统的应用探讨
运维·网络·人工智能·单片机·自动化
AKAMAI5 小时前
利用DataStream和TrafficPeak实现大数据可观察性
人工智能·云原生·云计算
天天开心(∩_∩)5 小时前
代码随想录算法训练营第三十二天
算法
微光-沫年5 小时前
150-SWT-MCNN-BiGRU-Attention分类预测模型等!
机器学习·matlab·分类