4.5 优化器中常见的梯度下降算法

梯度下降算法(Gradient Descent)的数学公式可以通过以下步骤严格表达:


1. 基本梯度下降(Batch Gradient Descent)

目标 :最小化损失函数L(θ)\mathcal{L}(\theta)L(θ),其中 θ\thetaθ是模型参数。
参数更新规则 : θt+1=θt−η⋅∇θL(θt)\theta_{t+1} = \theta_t - \eta \cdot \nabla_\theta \mathcal{L}(\theta_t)θt+1=θt−η⋅∇θL(θt)

  • θt\theta_tθt:第 t 次迭代的参数值
  • η\etaη:学习率(Learning Rate)
  • ∇θL(θt)\nabla_\theta \mathcal{L}(\theta_t)∇θL(θt):损失函数对参数 θ\thetaθ的梯度(所有训练样本的平均梯度)。

2. 随机梯度下降(Stochastic Gradient Descent, SGD)

每次迭代随机选取一个样本 计算梯度:
θt+1=θt−η⋅∇θL(θt;xi,yi)\theta_{t+1} = \theta_t - \eta \cdot \nabla_\theta \mathcal{L}(\theta_t; x_i, y_i)θt+1=θt−η⋅∇θL(θt;xi,yi)

  • ∇θL(θt;xi,yi)\nabla_\theta \mathcal{L}(\theta_t; x_i, y_i)∇θL(θt;xi,yi):仅基于单个样本 (xi,yi)(x_i, y_i)(xi,yi)的梯度。

3. 小批量梯度下降(Mini-Batch Gradient Descent)

每次迭代使用一个小批量(Batch)数据计算梯度:

θt+1=θt−η⋅1B∑i=1B∇θL(θt;xi,yi)\theta_{t+1} = \theta_t - \eta \cdot \frac{1}{B} \sum_{i=1}^B \nabla_\theta \mathcal{L}(\theta_t; x_i, y_i)θt+1=θt−η⋅B1∑i=1B∇θL(θt;xi,yi)

  • BBB:批量大小(Batch Size)
  • 1B∑i=1B∇θL\frac{1}{B} \sum_{i=1}^B \nabla_\theta \mathcal{L}B1∑i=1B∇θL:批量内样本梯度的平均值。

4. 带动量的梯度下降(Momentum)

引入动量项 vtv_tvt加速收敛并减少震荡:

vt+1=βvt+(1−β)∇θL(θt)v_{t+1} = \beta v_t + (1-\beta) \nabla_\theta \mathcal{L}(\theta_t)vt+1=βvt+(1−β)∇θL(θt)
θt+1=θt−η⋅vt+1\theta_{t+1} = \theta_t - \eta \cdot v_{t+1}θt+1=θt−η⋅vt+1

  • β\betaβ:动量系数(通常设为 0.9),控制历史梯度的影响。

5. Adam 优化器

结合动量(一阶矩)和自适应学习率(二阶矩),并引入偏差修正:

mt+1=β1mt+(1−β1)∇θL(θt)(一阶矩估计)m_{t+1} = \beta_1 m_t + (1-\beta_1) \nabla_\theta \mathcal{L}(\theta_t) \quad \text{(一阶矩估计)}mt+1=β1mt+(1−β1)∇θL(θt)(一阶矩估计)
vt+1=β2vt+(1−β2)(∇θL(θt))2(二阶矩估计)v_{t+1} = \beta_2 v_t + (1-\beta_2) \left( \nabla_\theta \mathcal{L}(\theta_t) \right)^2 \quad \text{(二阶矩估计)}vt+1=β2vt+(1−β2)(∇θL(θt))2(二阶矩估计)
m^t+1=mt+11−β1t+1(一阶矩偏差修正)\hat{m}{t+1} = \frac{m{t+1}}{1 - \beta_1^{t+1}} \quad \text{(一阶矩偏差修正)}m^t+1=1−β1t+1mt+1(一阶矩偏差修正)
v^t+1=vt+11−β2t+1(二阶矩偏差修正)\hat{v}{t+1} = \frac{v{t+1}}{1 - \beta_2^{t+1}} \quad \text{(二阶矩偏差修正)}v^t+1=1−β2t+1vt+1(二阶矩偏差修正)
θt+1=θt−η⋅m^t+1v^t+1+ϵ\theta_{t+1} = \theta_t - \eta \cdot \frac{\hat{m}{t+1}}{\sqrt{\hat{v}{t+1}} + \epsilon}θt+1=θt−η⋅v^t+1 +ϵm^t+1

  • β1,β2\beta_1, \beta_2β1,β2:衰减率(通常设为 0.9 和 0.999)
  • ϵ\epsilonϵ:数值稳定性常数(通常设为10\^{-8} )。

6. 梯度下降的数学意义

梯度下降的更新方向由 负梯度方向 −∇θL-\nabla_\theta \mathcal{L}−∇θL决定,其本质是沿着损失函数曲面的最速下降方向移动参数 θ\thetaθ。学习率 η\etaη控制步长,过大可能导致震荡,过小则收敛缓慢。


公式总结表

算法 公式
批量梯度下降 θt+1=θt−η⋅∇θL\theta_{t+1} = \theta_t - \eta \cdot \nabla_\theta \mathcal{L}θt+1=θt−η⋅∇θL
随机梯度下降 θt+1=θt−η⋅∇θL(xi,yi)\theta_{t+1} = \theta_t - \eta \cdot \nabla_\theta \mathcal{L}(x_i, y_i)θt+1=θt−η⋅∇θL(xi,yi)
小批量梯度下降 θt+1=θt−η⋅1B∑i=1B∇θL(xi,yi)\theta_{t+1} = \theta_t - \eta \cdot \frac{1}{B} \sum_{i=1}^B \nabla_\theta \mathcal{L}(x_i, y_i)θt+1=θt−η⋅B1∑i=1B∇θL(xi,yi)
Momentum vt+1=βvt+(1−β)∇θL),(θt+1=θt−ηvt+1v_{t+1} = \beta v_t + (1-\beta)\nabla_\theta \mathcal{L} ),( \theta_{t+1} = \theta_t - \eta v_{t+1}vt+1=βvt+(1−β)∇θL),(θt+1=θt−ηvt+1
Adam θt+1=θt−η⋅m^t+1v^t+1+ϵ\theta_{t+1} = \theta_t - \eta \cdot \frac{\hat{m}{t+1}}{\sqrt{\hat{v}{t+1}} + \epsilon}θt+1=θt−η⋅v^t+1 +ϵm^t+1

关键点

  1. 梯度方向:负梯度方向是函数值下降最快的方向(由泰勒展开的一阶近似可得)。
  2. 学习率选择:学习率 \\eta 需通过实验调参(或使用自适应方法如 Adam)。
  3. 收敛性:在凸函数中,梯度下降收敛到全局最优;在非凸函数中可能收敛到局部极小或鞍点。
  4. 复杂度:批量梯度下降计算成本高,小批量/随机梯度下降更适合大规模数据。

通过上述公式,梯度下降算法被严格地数学化,成为深度学习模型优化的基础工具。

相关推荐
乱世刀疤几秒前
cc-witch-web,已开源!实现OpenClaw、Claude Code等Agent的大模型便捷快速切换
人工智能·开源
minhuan5 分钟前
构建高可用大模型应用架构:大模型服务进程保活 + 全自动故障自愈实践.163
人工智能·大模型应用·大模型服务进程保活·全自动故障自愈·大模型运维监控
FrontAI7 分钟前
深入浅出 LangGraph —— 第11章:子图:构建模块化Agent
人工智能·langchain·ai agent·langgraph
嘻嘻哈哈樱桃8 分钟前
牛客经典101题解题集--贪心算法+模拟
java·python·算法·贪心算法
AKDreamer_HeXY9 分钟前
QOJ 12255 - 36 Puzzle 题解
数据结构·c++·数学·算法·icpc·qoj
njsgcs10 分钟前
我有待做任务清单和不良操作图片集,如何设计ai agent协助我完成工作
大数据·人工智能
AI科技星13 分钟前
《全域数学》第三卷:代数原本 · 全书详述【乖乖数学】
开发语言·人工智能·机器学习·数学建模
AI科技星18 分钟前
《全域数学》第一部 数术本源 第三卷 代数原本第14篇 附录二 猜想证明【乖乖数学】
人工智能·算法·数学建模·数据挖掘·量子计算
XD74297163618 分钟前
科技早报|2026年5月2日:AI 编程工具开始按用量收费
人工智能·科技·ai编程·github copilot·科技早报
liangdabiao18 分钟前
乐高摩托车深度报告-致敬张雪夺冠 -基于llm-wiki技术自动化写文章的效果
运维·人工智能·自动化