PyTorch会在每次.backward()调用时会累积梯度的问题

代码

python 复制代码
# backward() accumulates the gradient for this tensor into .grad attribute.
# !!! We need to be careful during optimization !!!
# Use .zero_() to empty the gradients before a new optimization step!
weights = torch.ones(4, requires_grad=True)

for epoch in range(3):
    # just a dummy example
    model_output = (weights*3).sum()
    model_output.backward()
    
    print(weights.grad)

这段代码展示了在使用PyTorch进行梯度计算和优化时的一个典型模式,包括如何累积梯度、如何在每一步优化前清空梯度,以及为何这样做是重要的。下面是对代码各部分的解释:

初始化权重

python 复制代码
weights = torch.ones(4, requires_grad=True)

这行代码创建了一个长度为4的张量,其初始值全为1,并设置requires_grad=True。这表示weights是需要计算梯度的,即在反向传播时,PyTorch会自动计算这些权重的梯度并存储在它们的.grad属性中。

循环和模型输出

python 复制代码
for epoch in range(3):
    # just a dummy example
    model_output = (weights*3).sum()
    model_output.backward()
    
    print(weights.grad)

这段代码表示了一个简化的训练循环,循环次数(代表"epoch")为3。在每次循环中:

  • 计算模型输出:通过将weights乘以3再求和得到model_output。这里的操作(乘以3和求和)仅仅是为了示例,并不代表实际模型的复杂度。
  • 执行model_output.backward():这个调用进行自动梯度计算,计算model_output关于所有requires_grad=True的张量(在此例中是weights)的梯度,并将计算得到的梯度累积到weights.grad属性中。
  • 打印weights.grad:展示了当前权重的梯度。

梯度累积和清空

代码的关键点之一是PyTorch在每次.backward()调用时累积梯度。这意味着如果不手动清空梯度,那么每次调用.backward()时计算得到的梯度就会加到已有的梯度上,这通常不是我们想要的行为,因为它会导致梯度值不断增加,从而影响到优化过程。

尽管这段示例代码中没有直接展示清空梯度的操作,但在注释中提到了使用.zero_()方法来清空梯度是非常重要的一步:

python 复制代码
# Use .zero_() to empty the gradients before a new optimization step!

在实际应用中,正确的做法是在每次优化步骤之前调用weights.grad.zero_()来清空梯度,以避免梯度累积导致的问题。这样可以确保每一步的优化都是基于最新一次前向传播计算得到的梯度。

总结

这段代码展示了在PyTorch中如何计算梯度、梯度累积的特性以及清空梯度的重要性。在实际训练模型时,适时清空梯度是保证模型正确学习的关键步骤之一。

输出:

bash 复制代码
tensor ( [3., 3., 3., 3.])
tensor ( [6., 6., 6., 6.])
tensor([9., 9., 9., 9.])

这段代码的输出展示了在三个训练周期(epoch)内,权重梯度的累积情况。由于在每次循环结束时没有清空梯度,所以得到的是梯度随着每个训练周期而逐步增加的结果。

代码回顾

代码中的关键操作是:

  • 计算模型输出model_output = (weights*3).sum()
  • 调用model_output.backward()来计算梯度

输出解释

  1. 第一次迭代 :权重梯度被初始化为0。当执行model_output.backward()后,计算得到的梯度(对每个权重的梯度是3)被累加到weights.grad中,因此打印出[3., 3., 3., 3.]
  2. 第二次迭代 :由于之前的梯度没有被清空,新计算的梯度值(同样是[3., 3., 3., 3.])被添加到现有的梯度上,结果是每个权重的梯度增加到了6,打印出[6., 6., 6., 6.]
  3. 第三次迭代 :这个过程再次发生,新的梯度值再次被添加到现有的梯度上,导致每个权重的梯度增加到了9,打印出[9., 9., 9., 9.]

梯度累积原理

在PyTorch中,.backward()方法计算的梯度会累加到张量的.grad属性中,而不是替换它。这意味着如果不手动清空梯度(使用.zero_()方法),每次.backward()调用的梯度就会叠加起来。这个特性在某些情况下是有用的,比如当你想要在多个小批量(minibatches)上累积梯度时。然而,在大多数情况下,在每次迭代前清空梯度是必要的,以避免因错误累积梯度而导致的优化问题。

为何梯度是3

在这个特定的例子中,梯度值为3的原因是模型输出model_output是权重weights乘以3后的值的和。因此,model_output关于每个权重的梯度就是3,这是由于求和操作的导数为1,且每个权重被乘以3。

为了更好地理解为什么梯度是3,我们可以详细地通过计算过程来阐述。

考虑模型输出 model_output 的计算公式,它是通过权重 weights 乘以一个常数(在这个例子中是3),然后对结果求和来得到的。如果我们将权重表示为 ( w 1 , w 2 , w 3 , w 4 ) (w_1, w_2, w_3, w_4) (w1,w2,w3,w4)(因为 weights 初始化为一个长度为4的张量),模型输出 model_output 可以表示为:

m o d e l _ o u t p u t = 3 w 1 + 3 w 2 + 3 w 3 + 3 w 4 model\_output = 3w_1 + 3w_2 + 3w_3 + 3w_4 model_output=3w1+3w2+3w3+3w4

我们要计算的是模型输出 model_output 关于每个权重的梯度,即 ( ∂ m o d e l _ o u t p u t ∂ w i ) (\frac{\partial model\_output}{\partial w_i}) (∂wi∂model_output),其中 i i i 是权重的索引(1, 2, 3, 4)。

根据导数的定义,对于每个 w i w_i wi,其梯度计算如下:

∂ m o d e l _ o u t p u t ∂ w 1 = 3 \frac{\partial model\_output}{\partial w_1} = 3 ∂w1∂model_output=3
∂ m o d e l _ o u t p u t ∂ w 2 = 3 \frac{\partial model\_output}{\partial w_2} = 3 ∂w2∂model_output=3
∂ m o d e l _ o u t p u t ∂ w 3 = 3 \frac{\partial model\_output}{\partial w_3} = 3 ∂w3∂model_output=3
∂ m o d e l _ o u t p u t ∂ w 4 = 3 \frac{\partial model\_output}{\partial w_4} = 3 ∂w4∂model_output=3

这是因为 model_output 相对于每个 w i w_i wi 的导数是3,即每个权重的系数。当你在代码中执行 model_output.backward() 时,PyTorch 自动计算这些导数(梯度),并将结果存储在 weights.grad 中。

因此,无论是第一次迭代还是随后的迭代,每次调用 model_output.backward() 都会在之前的基础上累加梯度3到 weights.grad 中,这就是为什么你看到梯度从 [3., 3., 3., 3.] 开始,每次迭代后都递增3的原因。这也解释了为何在每次迭代之前重置梯度是必要的,以防止错误累积导致的问题。

相关推荐
测开小菜鸟4 分钟前
使用python向钉钉群聊发送消息
java·python·钉钉
Power202466626 分钟前
NLP论文速读|LongReward:基于AI反馈来提升长上下文大语言模型
人工智能·深度学习·机器学习·自然语言处理·nlp
数据猎手小k29 分钟前
AIDOVECL数据集:包含超过15000张AI生成的车辆图像数据集,目的解决旨在解决眼水平分类和定位问题。
人工智能·分类·数据挖掘
好奇龙猫35 分钟前
【学习AI-相关路程-mnist手写数字分类-win-硬件:windows-自我学习AI-实验步骤-全连接神经网络(BPnetwork)-操作流程(3) 】
人工智能·算法
沉下心来学鲁班1 小时前
复现LLM:带你从零认识语言模型
人工智能·语言模型
数据猎手小k1 小时前
AndroidLab:一个系统化的Android代理框架,包含操作环境和可复现的基准测试,支持大型语言模型和多模态模型。
android·人工智能·机器学习·语言模型
YRr YRr1 小时前
深度学习:循环神经网络(RNN)详解
人工智能·rnn·深度学习
sp_fyf_20241 小时前
计算机前沿技术-人工智能算法-大语言模型-最新研究进展-2024-11-01
人工智能·深度学习·神经网络·算法·机器学习·语言模型·数据挖掘
多吃轻食1 小时前
大模型微调技术 --> 脉络
人工智能·深度学习·神经网络·自然语言处理·embedding
萧鼎1 小时前
Python并发编程库:Asyncio的异步编程实战
开发语言·数据库·python·异步