梯度下降算法的计算过程

1 小批量梯度下降(Mini-Batch Gradient Descent, MBGD)

  • 1.1划分数据集为多个小批量。
  • 1.2前向传播:对于每个小批量中的所有样本进行一次前向传播,得到预测输出。
  • 1.3计算损失:然后计算这些预测输出相对于真实标签的总损失。通常是累加每个样本的损失来完成。
  • 1.4反向传播:执行反向传播以计算当前小批量上损失函数关于模型参数的梯度,这是通过自动微分工具自动完成,它会为每一个参数计算出一个梯度值。
  • 1.5计算平均梯度
    • 前向传播:对于一个给定的小批量(mini-batch),假设包含m个样本。对于每个样本 x i {x}{i} xi,通过前向传播计算出预测值 y i ^ = f ( x i ; θ ) \hat{{y}{i}}=f({x}{i};\theta) yi^=f(xi;θ)。 y i ^ \hat{{y}{i}} yi^是关于样本值和模型参数的函数。
    • 计算损失:基于预定义的损失函数计算预测值和标签值的差异,即损失。损失函数形式为: J ( x i , y i ; θ ) = L ( y i ^ , y i ) J({x}{i},{y}{i};\theta)=L(\hat{{y}{i}}, {y}{i}) J(xi,yi;θ)=L(yi^,yi)。 J J J是关于 ( y i ^ , y i ) (\hat{{y}{i}}, {y}{i}) (yi^,yi)的函数。
    • 反向传播:基于链式法则,从输出层开始,逐层向后计算梯度。具体来说,对于每一层的参数 θ j \theta_{j} θj,计算该参数的梯度 ∇ θ j J ( x i , y i ; θ j ) \nabla_{\theta_{j}}J({x}{i},{y}{i};\theta_{j}) ∇θjJ(xi,yi;θj)
      ∂ L ∂ θ j = ∂ L ∂ y ^ ⋅ ∂ y ^ ∂ θ j \frac{\partial L}{\partial \theta_{j}}=\frac{\partial L}{\partial \hat{y}} \cdot \frac{\partial \hat{y}}{\partial \theta_{j}} ∂θj∂L=∂y^∂L⋅∂θj∂y^
      由于每个小批量有多个样本,反向传播会得到一组梯度值,最终结果取梯度的平均值。
      ∇ θ j J ˉ = 1 m ∑ i = 1 m ∇ θ j J ( x i , y i ; θ j ) \nabla_{\theta_{j}}\bar{J}=\frac{1}{m}\sum_{i=1}^{m}\nabla_{\theta_{j}}J({x}{i},{y}{i};\theta_{j}) ∇θjJˉ=m1∑i=1m∇θjJ(xi,yi;θj)
    • 参数更新:基于上述计算出的平均梯度更新模型参数。对于每个参数 θ j \theta_{j} θj,按照以下公式进行更新:
      θ j : = θ j − ϵ ∇ θ j J ˉ \theta_{j} :=\theta_{j} - \epsilon\nabla_{\theta_{j}}\bar{J} θj:=θj−ϵ∇θjJˉ,其中 ϵ \epsilon ϵ是模型学习率。

2 带动量的梯度下降

  • 2.1设置学习率 ϵ \epsilon ϵ和动量参数 α \alpha α。
  • 2.2 计算当前小批量的平均梯度
    g = 1 m ∑ i = 1 m ∇ θ j J ( x i , y i ; θ j ) g=\frac{1}{m}\sum_{i=1}^{m}\nabla_{\theta_{j}}J({x}{i},{y}{i};\theta_{j}) g=m1∑i=1m∇θjJ(xi,yi;θj)
  • 2.3 计算速度更新
    ν ← α ν − ϵ g \nu \gets \alpha\nu - \epsilon g ν←αν−ϵg
  • 2.4更新参数
    θ ← θ + ν \theta \gets \theta + \nu θ←θ+ν
相关推荐
旷世奇才李先生36 分钟前
Pillow 安装使用教程
深度学习·microsoft·pillow
凌肖战1 小时前
力扣网编程55题:跳跃游戏之逆向思维
算法·leetcode
88号技师2 小时前
2025年6月一区-田忌赛马优化算法Tianji’s horse racing optimization-附Matlab免费代码
开发语言·算法·matlab·优化算法
ゞ 正在缓冲99%…2 小时前
leetcode918.环形子数组的最大和
数据结构·算法·leetcode·动态规划
Kaltistss3 小时前
98.验证二叉搜索树
算法·leetcode·职场和发展
知己如祭3 小时前
图论基础(DFS、BFS、拓扑排序)
算法
mit6.8243 小时前
[Cyclone] 哈希算法 | SIMD优化哈希计算 | 大数运算 (Int类)
算法·哈希算法
c++bug3 小时前
动态规划VS记忆化搜索(2)
算法·动态规划
哪 吒3 小时前
2025B卷 - 华为OD机试七日集训第5期 - 按算法分类,由易到难,循序渐进,玩转OD(Python/JS/C/C++)
python·算法·华为od·华为od机试·2025b卷
acstdm4 小时前
DAY 48 CBAM注意力
人工智能·深度学习·机器学习