深度学习 自动求梯度

代码示例:

复制代码
import torch

# 创建一个标量张量 x,并启用梯度计算
x = torch.tensor(3.0, requires_grad=True)

# 计算 y = x^2
y = torch.pow(x, 2)

# 判断 x 和 y 是否需要梯度计算
print(x.requires_grad)  # 输出 x 的 requires_grad 属性
print(y.requires_grad)  # 输出 y 的 requires_grad 属性

# 反向传播,计算 y 对 x 的导数
y.backward()

# 查看 x 的梯度
print(x.grad)  # 输出 x 的梯度

代码详解:

代码一:
复制代码
x = torch.tensor(3.0, requires_grad=True)

在这行代码中,创建了一个 PyTorch 张量 x。

解释

  1. torch.tensor(3.0):

    • 这部分创建了一个张量,其值为 3.0。这是一个标量张量,数据类型为浮点数(float)。
  2. requires_grad=True:

    • 这个参数指定 PyTorch 需要跟踪该张量的所有操作,以便在后续的反向传播过程中计算梯度。换句话说,设置 requires_grad=True 使得这个张量在执行任何操作后,能够计算其梯度。
代码二:
复制代码
y = torch.pow(x, 2)

解释

  1. torch.pow(x, 2):

    • 这是 PyTorch 中的一个函数,用于计算 x 的幂。在这里,x 被提高到 2 的幂,即计算 (x^2)。
    • 由于之前我们已经定义了 x = torch.tensor(3.0, requires_grad=True),所以 torch.pow(x, 2) 实际上会计算 (3.0^2),得到的结果是 9.0
  2. y = ...:

    • 将计算得到的结果 9.0 存储在张量 y 中。由于 xrequires_grad 属性为 True,PyTorch 会自动设置 yrequires_grad 属性为 True,使得 y 也可以用于梯度计算。
代码三:
复制代码
y.backward()

y.backward() 是 PyTorch 中用于计算梯度的重要方法,它在反向传播过程中发挥着关键作用。

解释

  1. y.backward() :
    • 这行代码触发反向传播,以计算损失函数 y 相对于输入张量 x 的梯度。
    • 在调用 backward() 方法之前,计算图已经构建完毕,y 是通过某些操作(例如 torch.pow(x, 2))生成的张量。
    • backward() 被调用时,PyTorch 会从 y 开始,沿着计算图向后传播,计算所有需要计算梯度的张量的梯度。

自动微分

  • 在 PyTorch 中,backward() 使用自动微分(automatic differentiation)来计算梯度。这意味着系统会自动根据张量间的运算关系,利用链式法则来计算每个张量的梯度。

计算过程

  • 在之前的例子中,我们定义了 ( y = x^2 ) 并且 ( x = 3.0 )。
  • 在反向传播过程中,PyTorch 计算 ( \frac{dy}{dx} ) 的值:
    • 根据导数公式,( \frac{dy}{dx} = 2x )。
    • 对于 ( x = 3.0 ),因此 ( \frac{dy}{dx} = 2 \times 3.0 = 6.0 )。
  • 这个值会被存储在 x.grad 中,方便后续使用。

print(x.grad) 语句用于输出张量 x 的梯度值。

为了更好的理解什么是梯度,看下面示例代码:

示例二:

复制代码
import torch
x=torch.tensor(3.0,requires_grad=True)
y=torch.tensor(4.0,requires_grad=False)
z=torch.pow(x,2)+torch.pow(y,2)
print("x.requires_grad:",x.requires_grad)
print("y.requires_grad:",y.requires_grad)
print("z.requires_grad:",z.requires_grad)
z.backward()
print("x.grad:",x.grad)
print("y.grad:",y.grad)
print("z.grad:",z.grad)
print(z)

输出:

复制代码
x.requires_grad: True
y.requires_grad: False
z.requires_grad: True
x.grad: tensor(6.)
y.grad: None
z.grad: None
tensor(25., grad_fn=<AddBackward0>)

输出解释

  1. 可求导性检查:

    • x.requires_grad: True 表示 x 是一个可求导的张量。
    • y.requires_grad: False 表示 y 不是可求导的张量。
    • z.requires_grad: True 表示 z 是可求导的,因为它是由可求导的张量 x 计算得出的。
  2. 梯度计算:

    • 调用 z.backward() 时,计算了 z 关于 x 的梯度。
    • y.grad 输出 None,因为 y 不可求导。
  3. 关于 z 的梯度:

    • z.grad 输出 None,这是因为 z 不是叶子节点。只有叶子节点的 grad 属性会被自动设置。
我们在运行此段代码时会遇到一个警告:

大致意思是:

你在访问 z.grad 时遇到的警告提示你正在访问一个非叶子张量的梯度属性。此警告说明 z 不是一个叶子张量,因此其 .grad 属性在执行 backward() 时不会被填充。

叶子张量与非叶子张量

在 PyTorch 中,叶子张量 (leaf tensors)是指那些没有任何历史计算的张量,通常是由用户直接创建的张量(例如通过 torch.tensor() 创建)。而 非叶子张量 是由其他张量经过操作计算得出的张量(例如加法、乘法等操作生成的结果)。

为了使非叶子张量的 .grad 属性被填充,你可以在计算图中使用 .retain_grad() 方法。这将允许你在调用 backward() 后访问非叶子张量的梯度。

请看修改后的示例三:

示例三:

复制代码
import torch

# 创建一个可求导的张量 x 和一个不可求导的张量 y
x = torch.tensor(3.0, requires_grad=True)  # x 可求导
y = torch.tensor(4.0, requires_grad=False) # y 不可求导

# 定义函数 z = f(x, y) = x^2 + y^2
z = torch.pow(x, 2) + torch.pow(y, 2)

# 让 z 保留梯度
z.retain_grad()

# 打印每个张量的 requires_grad 属性
print("x.requires_grad:", x.requires_grad)  # 输出: True
print("y.requires_grad:", y.requires_grad)  # 输出: False
print("z.requires_grad:", z.requires_grad)  # 输出: True

# 反向传播以计算梯度
z.backward()

# 打印 x 和 y 的梯度
print("x.grad:", x.grad)  # 输出: tensor(6.)
print("y.grad:", y.grad)  # 输出: None
print("z.grad:", z.grad)  # 输出: tensor(1.)

为什么z的梯度为1或者z的导为1?

z 对自身的导数为1

举个例子:

y=x**2;

y对于x的导为2*x;

y对于自身的导为1。

相关推荐
胡耀超1 分钟前
图像颜色理论与数据挖掘应用的全景解析
人工智能·python·opencv·计算机视觉·数据挖掘·视觉检测·pillow
R²AIN SUITE5 分钟前
快消零售AI转型:R²AIN SUITE如何破解效率困局
大数据·人工智能·产品运营
ONLYOFFICE8 分钟前
集成 ONLYOFFICE 与 AI 插件,为您的服务带来智能文档编辑器
人工智能·ai·编辑器·onlyoffice·文档编辑器·文档预览·文档协作
一个天蝎座 白勺 程序猿14 分钟前
GpuGeek全栈AI开发实战:从零构建企业级大模型生产管线(附完整案例)
人工智能·gpugeek
love530love16 分钟前
家用或办公 Windows 电脑玩人工智能开源项目配备核显的必要性(含 NPU 及显卡类型补充)
人工智能·windows·python·开源·电脑
深圳市青牛科技实业有限公司18 分钟前
D2203使用手册—高压、小电流LDO产品4.6V~36V、150mA
人工智能·单片机·嵌入式硬件·电动工具·工业散热风扇
shengjk122 分钟前
序列化和反序列化:从理论到实践的全方位指南
java·大数据·开发语言·人工智能·后端·ai编程
AI大模型顾潇22 分钟前
[特殊字符] 本地大模型编程实战(29):用大语言模型LLM查询图数据库NEO4J(2)
前端·数据库·人工智能·语言模型·自然语言处理·prompt·neo4j
2501_9153743537 分钟前
数据清洗的艺术:如何为AI模型准备高质量数据集?
人工智能·机器学习
山北雨夜漫步40 分钟前
机器学习 Day17 朴素贝叶斯算法-----概率论知识
人工智能·算法·机器学习