思想上的共同基因
两者都使用一个带有"遗忘因子"的更新公式,也就是:
new_value = β * old_value + (1 - β) * something_new
β 在 0 到 1 之间,是"记忆长度"。
β 越大,记忆越长,越平滑。
这个形式其实就是指数加权平均的通用形式,也就是 EMA 的本质。
这也是为什么很多人说"动量本质上就是在梯度上做指数加权"。这句话并没错,但它没有说明它们功能级别的差别。
关键分歧:它们的"意图"完全不同
可以用一句非常精炼的话区分它们:
动量是给参数更新添加物理意义上的"惯性";
EMA 是用指数衰减方式做"平滑",用于统计意义上的噪声抑制。
这就像一个是冲刺时前倾身体的惯性,一个是把噪声滤掉的平滑器。
动量优化(Momentum)侧重:加速下降,减少震荡
动量算法把梯度当成"力",把你正在优化的 θ 想象成物体。
公式(标准 SGD + Momentum):
v_t = β * v_{t-1} + (1 - β) * ∇L(θ_t)
θ_t = θ_t - α * v_t
你可以把 v_t 理解为"速度",它累积了之前的下降方向,使下降更稳定:
- 在狭长的峡谷(如鞍点附近)------减少左右摇摆。
- 在下降方向一致的区域------让你越滚越快,加速收敛。
动量关心的是"方向与速度"。
EMA(指数加权平均)侧重:平滑、去噪
EMA 通常用于统计、监控、推理阶段,而不是用于改变下降方向。
最常见的场景:
- 平滑训练曲线
比如把 loss 曲线画得不那么尖锐。 - 模型参数 EMA(如 YOLO、Transformers 中常用)
让推理用到的是"平均过的权重",比瞬时梯度噪声更稳定。 - 估计梯度的一阶/二阶统计特征 (如 Adam)
Adam 里的m_t和v_t都是 EMA。
公式结构类似:
S_t = β * S_{t-1} + (1 - β) * x_t
但它不会直接改变参数更新方向,而是作为"估计器"或"平滑器"。
EMA 关心的是"信号质量"。
最直观的对比表(无术语版)
| 项目 | 动量优化(Momentum) | 指数加权平均(EMA) |
|---|---|---|
| 用途 | 加速优化、减少梯度震荡 | 平滑数据、获得更稳的估计 |
| 操作的对象 | 梯度 + 参数更新方向 | 任意数据:损失、梯度、权重、统计量 |
| 更新结果会改变参数吗? | 会,直接影响下降 | 不一定,通常不会直接影响下降 |
| 数学形式 | EMA 形式,但用于"速度" | 纯 EMA,用于平滑 |
| β 的意义 | 控制惯性大小 | 控制记忆长度和平滑程度 |
| 类比 | 滚雪球时的惯性 | 把 noisy 曲线变成好看的曲线 |
一个小例子:用同一段梯度信号解释区别
假设你在训练一个模型,梯度噪声很大:
1. 用动量
你会得到一个"偏向于主方向的速度",允许你越滑越快。
像在颠簸的山坡上跑步------你会忽略小碎石,顺着大方向冲。
2. 用 EMA
你会得到一个"更平滑的梯度估计",但它本身不推动你往哪里走。
像把震荡的温度计读数变成一个好看的曲线。
Aha 时刻:Adam 里两者都出现了
Adam = 动量(梯度的一阶 EMA)+ 二阶梯度的 EMA + 自适应学习率。
换句话说:
- 动量的思想被用来决定方向(m_t)。
- EMA 的思想用于估计梯度的方差(v_t)。
同一种结构,根据用途不同,扮演完全不同的角色。
收束一下
两者长得像是双胞胎,但性格完全不同:
- 动量是"速度",推着模型奔跑。
- EMA 是"滤波器",让你看到更干净的信号。
理解这一点后,优化算法的族谱会变得清晰很多,比如为什么 SGD、Momentum、RMSProp、Adam 是一条清晰的演化链。
如果继续探索,会看到这些算法背后其实都有一种朴素又优雅的数学美感:用一点点记忆去驯服随机性。