【深度学习|学习笔记】详细讲解一下 深度学习训练过程中 为什么 Momentum 可以加速训练?

【深度学习|学习笔记】详细讲解一下 深度学习训练过程中 为什么 Momentum 可以加速训练?

【深度学习|学习笔记】详细讲解一下 深度学习训练过程中 为什么 Momentum 可以加速训练?


文章目录

  • [【深度学习|学习笔记】详细讲解一下 深度学习训练过程中 为什么 Momentum 可以加速训练?](#【深度学习|学习笔记】详细讲解一下 深度学习训练过程中 为什么 Momentum 可以加速训练?)
    • [1. 普通 SGD 的问题](#1. 普通 SGD 的问题)
    • [2. Momentum 的思想](#2. Momentum 的思想)
    • [3. 直观理解](#3. 直观理解)
    • [4. 代码示例(PyTorch 对比 SGD 和 SGD+Momentum)](#4. 代码示例(PyTorch 对比 SGD 和 SGD+Momentum))
    • [5. 总结](#5. 总结)

欢迎铁子们点赞、关注、收藏!
祝大家逢考必过!逢投必中!上岸上岸上岸!upupup

大多数高校硕博生毕业要求需要参加学术会议,发表EI或者SCI检索的学术论文会议论文。详细信息可扫描博文下方二维码 "学术会议小灵通"或参考学术信息专栏:https://blog.csdn.net/2401_89898861/article/details/148877490


1. 普通 SGD 的问题

  • 随机梯度下降(SGD)中 ,每一步更新参数都依赖于当前梯度方向:

    问题:
  • 在损失函数曲面陡峭的方向(如纵向坡度大)参数更新会来回震荡。
  • 在平缓方向(如横向坡度小)更新很慢。
  • 因此收敛效率低,特别是在高维空间或峡谷状的损失函数中。

2. Momentum 的思想

  • Momentum(动量)引入了"惯性"的概念,相当于在更新时不仅考虑当前梯度,还考虑之前的更新方向:

    其中:
  • v t v_t vt:累积的梯度方向(带记忆)
  • β β β:动量系数(一般取 0.9)
  • g t g_t gt:当前梯度

效果:

  • 在梯度方向一致的维度上,动量会不断累积,加速收敛。
  • 在梯度方向来回震荡的维度上,动量会抵消抖动,减少震荡。

3. 直观理解

可以把 Momentum 想象成 小球在曲面上滚动

  • 普通 SGD 就像小球只看当前的坡度,走一步停一下。
  • Momentum 像是小球有惯性,可以顺着方向滚下去,因此更快更平滑。

4. 代码示例(PyTorch 对比 SGD 和 SGD+Momentum)

我们用一个简单的二次函数 f ( x , y ) = x 2 + 10 y 2 f(x,y)=x^2+10y^2 f(x,y)=x2+10y2 来演示:

  • 这个函数在 y 方向比 x 方向陡峭,普通 SGD 会震荡很大,而 Momentum 可以快速收敛。
csharp 复制代码
import torch
import matplotlib.pyplot as plt

# 定义损失函数 f(x, y) = x^2 + 10y^2
def loss_fn(params):
    x, y = params
    return x**2 + 10*y**2

# SGD 更新
def sgd_update(params, lr=0.1):
    grads = torch.autograd.grad(loss_fn(params), params, create_graph=False)
    with torch.no_grad():
        for p, g in zip(params, grads):
            p -= lr * g
    return params

# SGD + Momentum 更新
class SGD_Momentum:
    def __init__(self, params, lr=0.1, beta=0.9):
        self.params = params
        self.lr = lr
        self.beta = beta
        self.v = [torch.zeros_like(p) for p in params]

    def step(self):
        grads = torch.autograd.grad(loss_fn(self.params), self.params, create_graph=False)
        with torch.no_grad():
            for i, (p, g) in enumerate(zip(self.params, grads)):
                self.v[i] = self.beta * self.v[i] + (1 - self.beta) * g
                p -= self.lr * self.v[i]
        return self.params

# 初始化参数
params_sgd = [torch.tensor(5.0, requires_grad=True), torch.tensor(5.0, requires_grad=True)]
params_momentum = [torch.tensor(5.0, requires_grad=True), torch.tensor(5.0, requires_grad=True)]

momentum_opt = SGD_Momentum(params_momentum, lr=0.1, beta=0.9)

# 记录轨迹
sgd_trace, momentum_trace = [], []

for _ in range(50):
    sgd_trace.append([p.item() for p in params_sgd])
    momentum_trace.append([p.item() for p in params_momentum])

    params_sgd = sgd_update(params_sgd, lr=0.1)
    momentum_opt.step()

# 可视化
sgd_trace = torch.tensor(sgd_trace)
momentum_trace = torch.tensor(momentum_trace)

plt.plot(sgd_trace[:,0], sgd_trace[:,1], 'o-', label="SGD")
plt.plot(momentum_trace[:,0], momentum_trace[:,1], 'o-', label="SGD+Momentum")
plt.xlabel("x")
plt.ylabel("y")
plt.legend()
plt.title("SGD vs SGD+Momentum Trajectories")
plt.show()

结果解释

  • SGD:在 y 方向来回震荡,收敛慢。
  • SGD+Momentum:更新更平滑,能快速向最低点靠拢。

5. 总结

  • Momentum 加速训练,是因为它利用了"历史梯度"来平滑更新,减少震荡,并在一致方向上加快收敛。
  • 在实践中,SGD + Momentum 已经成为深度学习最常用的优化器之一(很多时候比 Adam 泛化更好)。
相关推荐
忘川w2 小时前
红宝书 基础词回忆
笔记
飞哥数智坊2 小时前
DeepSeek 节前突袭发布 V3.2-Exp:长文本推理成本直降75%!
人工智能·deepseek
清风吹过2 小时前
少样本学习论文分享:多模态和类增量学习
论文阅读·人工智能·深度学习·学习·机器学习
Larry_Yanan2 小时前
QML学习笔记(十四)QML的自定义模块
开发语言·笔记·qt·学习·ui
居然JuRan3 小时前
抽丝剥茧的Transformer详解
人工智能
计算机小手3 小时前
AI截图解答工具,可自定义设置多模态模型和提示词
人工智能·经验分享·开源软件
wdfk_prog3 小时前
[Linux]学习笔记系列 -- lib/sort.c 通用的排序库(Generic Sorting Library) 为内核提供标准的、高效的排序功能
linux·运维·c语言·笔记·stm32·学习·bug
资讯全球3 小时前
2025年用户体验佳的大型企业报销系统
人工智能·百度·ux
CappuccinoRose4 小时前
MATLAB学习文档(二十二)
学习·算法·matlab