pytorch升级打怪(六)

自动分化

torch.autograd

在训练神经网络时,最常用的算法是反向传播。在该算法中,根据损失函数相对于给定参数的梯度调整参数(模型权重)。

为了计算这些梯度,PyTorch内置了一个名为torch.autograd的分化引擎。它支持任何计算图的梯度自动计算。

考虑最简单的单层神经网络,具有输入x、参数w和b以及一些损失函数。它可以以以下方式在PyTorch中定义:

python 复制代码
import torch

x = torch.ones(5)  # input tensor
y = torch.zeros(3)  # expected output
w = torch.randn(5, 3, requires_grad=True)
b = torch.randn(3, requires_grad=True)
z = torch.matmul(x, w)+b
loss = torch.nn.functional.binary_cross_entropy_with_logits(z, y)

张量、函数和计算图

此代码定义了以下计算图:

在这个网络中,w和b是参数,我们需要对其进行优化。因此,我们需要能够计算相对于这些变量的损失函数梯度。为了做到这一点,我们设置了这些张量的requires_grad属性。

您可以在创建张量时设置requires_grad的值,或者稍后使用x.requires_grad_(True)方法。

python 复制代码
print(f"Gradient function for z = {z.grad_fn}")
print(f"Gradient function for loss = {loss.grad_fn}")
shell 复制代码
Gradient function for z = <AddBackward0 object at 0x13d5b0190>
Gradient function for loss = <BinaryCrossEntropyWithLogitsBackward0 object at 0x13d5b0190>

计算梯度

为了优化神经网络中参数的权重,我们需要计算损失函数相对于参数的导数,为了计算这些导数,我们调用loss.backward(),然后从w.grad和b.grad中检索值:

python 复制代码
loss.backward()
print(w.grad)
print(b.grad)
shell 复制代码
tensor([[0.1828, 0.0112, 0.3162],
        [0.1828, 0.0112, 0.3162],
        [0.1828, 0.0112, 0.3162],
        [0.1828, 0.0112, 0.3162],
        [0.1828, 0.0112, 0.3162]])
tensor([0.1828, 0.0112, 0.3162])

我们只能获得计算图的叶节点的grad属性,这些节点的requires_grad属性设置为True。对于我们图表中的所有其他节点,渐变将不可用。
出于性能原因,我们只能在给定的图表上向backward执行一次梯度计算。如果我们需要在同一图上进行几次backward调用,我们需要将retain_graph=True传递给向backward调用。

禁用梯度跟踪

默认情况下,所有具有requires_grad=True张量都在跟踪其计算历史并支持梯度计算。然而,在某些情况下,我们不需要这样做,例如,当我们训练了模型,只想将其应用于一些输入数据时,即我们只想通过网络进行前向计算。我们可以通过用torch.no_grad()块包围我们的计算代码来停止跟踪计算:

python 复制代码
z = torch.matmul(x, w)+b
print(z.requires_grad)

with torch.no_grad():
    z = torch.matmul(x, w)+b
print(z.requires_grad)
shell 复制代码
True
False

另一种实现相同结果的方法是在张量上使用detach()方法:

python 复制代码
z = torch.matmul(x, w)+b
z_det = z.detach()
print(z_det.requires_grad)
shell 复制代码
False

您可能想要禁用梯度跟踪是有原因的:

将神经网络中的一些参数标记为冻结参数。

当你只做正向传递时,为了加快计算速度,因为对不跟踪梯度的张量进行计算会更有效率。

相关推荐
从零开始学习人工智能22 分钟前
深度解析 MindTorch:无缝迁移 PyTorch 到 MindSpore 的高效工具
人工智能·pytorch·python
C灿灿数模1 小时前
2025五一杯数学建模C题:社交媒体平台用户分析问题;思路分析+模型代码
数据库·人工智能·python
灏瀚星空1 小时前
量化交易之数学与统计学基础2.2——线性代数与矩阵运算 | 特征值与特征向量
笔记·python·学习·数学建模·金融
豌豆花下猫1 小时前
Python 类不要再写 __init__ 方法了
后端·python·ai
白瑕2 小时前
[Python]非零基础的快速上手
python
晓13132 小时前
第二章 OpenCV篇-图像阈值的综合操作-Python
python·opencv·计算机视觉·pycharm
Dxy12393102163 小时前
python如何word转pdf
python·pdf·word
大G哥3 小时前
树莓派智能摄像头实战指南:基于TensorFlow Lite的端到端AI部署
人工智能·python·深度学习·机器学习·tensorflow
heyCHEEMS4 小时前
[蓝桥杯 2023 国 Python B] 划分 Java
java·python·蓝桥杯
热爱生活的猴子4 小时前
一个完整的神经网络训练流程详解(附 PyTorch 示例)
人工智能·pytorch·深度学习·神经网络