梯度累计原理:数学可行性与PyTorch实现

目录

为啥梯度能"累计"?

梯度相加为什么数学上是可行的?

[backward() 里到底发生什么?](#backward() 里到底发生什么?)

[为什么需要手动 zero_grad?](#为什么需要手动 zero_grad?)

组合在一起:梯度累计的流程

[backward 结束后,梯度和优化器 step 的关系又是什么?](#backward 结束后,梯度和优化器 step 的关系又是什么?)

一句总结


为啥梯度能"累计"?

在标准训练里,你做的流程是:

前向计算 → backward算梯度 → 用优化器更新参数。

它隐含了一个默认假设:你一个 batch 的数据已经足够代表真实分布,因此一次梯度就能用来更新参数。

但你可能没那么大的显存,没法用你理想的 batch_size 128、256......你可能只能塞 batch_size = 4 或 8。这样会让梯度噪声很大,模型更新得像喝了咖啡的蚂蚁一样跳跃。

这里就需要梯度累计:
你通过多次前向+反向,把多个小 batch 的梯度加起来,模拟一个"大 batch"。然后再更新一次参数。

这相当于你把"更新"这步延迟,反向的梯度会在参数的 .grad 里不断累加,直到你觉得"好了,累够了",再让 optimizer.step() 一次。


梯度相加为什么数学上是可行的?

反向传播得到的梯度,本质上是损失函数对参数的偏导数。

多批数据的总损失 L = L₁ + L₂ + ... + Lₙ。

对参数 w 的梯度是:

∂L/∂w = ∂(L₁ + L₂ + ... + Lₙ)/∂w

= ∂L₁/∂w + ∂L₂/∂w + ... + ∂Lₙ/∂w

也就是说:独立 batch 的梯度可以直接相加,这就是数学的允许证书。

这也是为什么你做 4 次 backward,.grad 就累计了 4 个 batch 的梯度,你再 step,一次性更新。


backward() 里到底发生什么?

你可以把 backward 理解为"沿着计算图倒着求导,并把结果塞到对应参数的 .grad 上"。

具体来说:

  1. PyTorch 构建一个动态计算图,把每个操作都记录下来:加法、矩阵乘法、卷积......

  2. 调用 backward() 后,它沿着计算图做链式求导。

  3. 求出的梯度会加到每个需要梯度的 tensor.grad 上。

    注意是 加上去(+=),不是替换!

举个例子:

复制代码
loss.backward()

内部发生的是:

  • 遍历计算图,把每一层对 loss 的梯度算出来

  • 如果 parameter.grad 原来不是 None,就做

    复制代码
    parameter.grad += grad_from_backprop
  • 直到所有参数都获得了自己的梯度

也就是说,它天然支持"累积"。


为什么需要手动 zero_grad?

因为 PyTorch 的默认行为是"累加梯度"。

如果你不手动清空 .grad,下一次 backward 会继续往上叠。

这刚好与梯度累计是一对好搭子:

累计时,你故意不清 grad;

更新后,你必须清 grad。


组合在一起:梯度累计的流程

复制代码
optimizer.zero_grad()

for i, (x, y) in enumerate(dataloader):
    out = model(x)
    loss = criterion(out, y)
    loss = loss / accumulation_steps      # 可选:把 loss 平均一下

    loss.backward()                       # 梯度累加到了 param.grad

    if (i+1) % accumulation_steps == 0:
        optimizer.step()                  # 更新权重
        optimizer.zero_grad()             # 清空梯度,准备下一轮

这样就实现了"小 batch 训练大 batch 的效果"。


backward 结束后,梯度和优化器 step 的关系又是什么?

你可以把它想象成两个阶段:

  • backward:负责算梯度并把它放到 param.grad

  • optimizer.step:负责用 param.grad 来真正修改参数

优化器做的是:

w = w - learning_rate * w.grad

当你累计梯度时,是把多个梯度加到 w.grad 上,再由 optimizer 一次性使用它。


一句总结

梯度累计能生效,是因为反向传播会把梯度累加在 .grad 上,而多个 batch 的梯度在数学上可以直接相加;优化器只在你调用 step() 时使用累积结果更新一次参数,从而实现"大 batch 训练"的效果。

相关推荐
我的xiaodoujiao1 小时前
使用 Python 语言 从 0 到 1 搭建完整 Web UI自动化测试学习系列 27--二次封装方法--优化断言结果
python·学习·测试工具·pytest
Java中文社群1 小时前
超简单!3步生成10W+爆款说唱视频!
人工智能
love530love1 小时前
解决 ComfyUI 启动显示 ‘sox‘ 命令未找到错误:从安装到配置的完整指南
人工智能·windows·python·aigc·comfyui·comfyui-manager
J***79392 小时前
Python在机器学习中的数据处理
开发语言·python·机器学习
飞哥数智坊2 小时前
从没写过浏览器插件?我用 TRAE SOLO 2 小时就完成了专属翻译工具
人工智能·ai编程·trae
深蓝电商API2 小时前
初级爬虫反爬应对:解决 403、IP 限制的简单方法
爬虫·python
闲人编程3 小时前
Python协程的演进:从yield到async/await的完整历史
java·前端·python·async·yield·await·codecapsule
睿思达DBA_WGX3 小时前
使用 Python 的第三方库 xlrd 读取 Excel 文件
python·excel