理解什么是叶子张量和非叶子张量?

在 PyTorch 中,叶子张量(Leaf Tensor)和非叶子张量(Non-Leaf Tensor)是计算图中的两个重要概念:

叶子张量(Leaf Tensor)

叶子张量是计算图中的起始点,它们通常是用户直接创建的张量,并且没有其他张量作为它们的输入。换句话说,叶子张量是那些不需要通过任何计算就能获得的张量。在神经网络中,叶子张量通常对应于模型的输入数据和模型的参数(权重和偏置)。

特征包括:

  • 是计算图的起点。
  • 通常对应于模型的参数或外部输入数据。
  • 可以设置 requires_grad=True 来追踪梯度,以便在训练过程中更新这些参数。

非叶子张量(Non-Leaf Tensor)

非叶子张量是计算图中通过某些操作从其他张量派生出来的张量。它们是计算图的中间节点,其值依赖于一个或多个其他张量的值。当你对叶子张量或其他非叶子张量执行操作(如加法、乘法等)时,就会创建非叶子张量。

特征包括:

  • 是通过计算图中的操作生成的。
  • 依赖于其他张量的值。
  • 默认情况下,它们的 .grad 属性在反向传播时不会被填充,除非你显式调用 retain_grad() 方法。

示例

python 复制代码
import torch

# 创建叶子张量 x,它是一个直接由用户创建的张量
x = torch.randn(2, 2, requires_grad=True)

# 创建非叶子张量 y,它是通过操作 x 得到的
y = x * 2

# 创建另一个非叶子张量 z,它是通过操作 y 得到的
z = y + 3

在这个示例中:

  • x 是叶子张量,因为它是直接创建的,并且没有依赖于其他张量。
  • yz 是非叶子张量,因为它们是通过操作 xy 得到的。

梯度计算

在反向传播时,PyTorch 会自动计算叶子张量的梯度,并将这些梯度存储在叶子张量的 .grad 属性中。对于非叶子张量,你需要显式调用 retain_grad() 方法,才能在反向传播时计算和存储它们的梯度。

python 复制代码
# 反向传播计算梯度
z.backward()

# 打印 x, y, z 的梯度
print("Gradient of x:", x.grad)  # 可以访问,因为 x 是叶子张量
print("Gradient of y:", y.grad)  # 会报警告,因为 y 是非叶子张量,且没有调用 retain_grad()
print("Gradient of z:", z.grad)  # 会报警告,因为 z 是非叶子张量,且没有调用 retain_grad()

为了能够访问 yz 的梯度,你需要在创建它们之后调用 retain_grad() 方法:

python 复制代码
y.retain_grad()
z.retain_grad()

# 反向传播计算梯度
z.backward()

# 打印 x, y, z 的梯度
print("Gradient of x:", x.grad)  # 可以访问
print("Gradient of y:", y.grad)  # 现在可以访问
print("Gradient of z:", z.grad)  # 现在可以访问

贴个网图:

相关推荐
哥布林学者9 小时前
高光谱成像(一)高光谱图像
机器学习·高光谱成像
罗西的思考10 小时前
AI Agent框架探秘:拆解 OpenHands(10)--- Runtime
人工智能·算法·机器学习
HXhlx14 小时前
CART决策树基本原理
算法·机器学习
OpenBayes贝式计算4 天前
解决视频模型痛点,TurboDiffusion 高效视频扩散生成系统;Google Streetview 涵盖多个国家的街景图像数据集
人工智能·深度学习·机器学习
OpenBayes贝式计算4 天前
OCR教程汇总丨DeepSeek/百度飞桨/华中科大等开源创新技术,实现OCR高精度、本地化部署
人工智能·深度学习·机器学习
够快云库5 天前
能源行业非结构化数据治理实战:从数据沼泽到智能资产
大数据·人工智能·机器学习·企业文件安全
B站_计算机毕业设计之家5 天前
电影知识图谱推荐问答系统 | Python Django系统 Neo4j MySQL Echarts 协同过滤 大数据 人工智能 毕业设计源码(建议收藏)✅
人工智能·python·机器学习·django·毕业设计·echarts·知识图谱
Flying pigs~~5 天前
机器学习之逻辑回归
人工智能·机器学习·数据挖掘·数据分析·逻辑回归
Evand J5 天前
通过matlab实现机器学习的小项目示例(鸢尾花分类)
机器学习·支持向量机·matlab