pytorch升级打怪(六)

自动分化

torch.autograd

在训练神经网络时,最常用的算法是反向传播。在该算法中,根据损失函数相对于给定参数的梯度调整参数(模型权重)。

为了计算这些梯度,PyTorch内置了一个名为torch.autograd的分化引擎。它支持任何计算图的梯度自动计算。

考虑最简单的单层神经网络,具有输入x、参数w和b以及一些损失函数。它可以以以下方式在PyTorch中定义:

python 复制代码
import torch

x = torch.ones(5)  # input tensor
y = torch.zeros(3)  # expected output
w = torch.randn(5, 3, requires_grad=True)
b = torch.randn(3, requires_grad=True)
z = torch.matmul(x, w)+b
loss = torch.nn.functional.binary_cross_entropy_with_logits(z, y)

张量、函数和计算图

此代码定义了以下计算图:

在这个网络中,w和b是参数,我们需要对其进行优化。因此,我们需要能够计算相对于这些变量的损失函数梯度。为了做到这一点,我们设置了这些张量的requires_grad属性。

您可以在创建张量时设置requires_grad的值,或者稍后使用x.requires_grad_(True)方法。

python 复制代码
print(f"Gradient function for z = {z.grad_fn}")
print(f"Gradient function for loss = {loss.grad_fn}")
shell 复制代码
Gradient function for z = <AddBackward0 object at 0x13d5b0190>
Gradient function for loss = <BinaryCrossEntropyWithLogitsBackward0 object at 0x13d5b0190>

计算梯度

为了优化神经网络中参数的权重,我们需要计算损失函数相对于参数的导数,为了计算这些导数,我们调用loss.backward(),然后从w.grad和b.grad中检索值:

python 复制代码
loss.backward()
print(w.grad)
print(b.grad)
shell 复制代码
tensor([[0.1828, 0.0112, 0.3162],
        [0.1828, 0.0112, 0.3162],
        [0.1828, 0.0112, 0.3162],
        [0.1828, 0.0112, 0.3162],
        [0.1828, 0.0112, 0.3162]])
tensor([0.1828, 0.0112, 0.3162])

我们只能获得计算图的叶节点的grad属性,这些节点的requires_grad属性设置为True。对于我们图表中的所有其他节点,渐变将不可用。
出于性能原因,我们只能在给定的图表上向backward执行一次梯度计算。如果我们需要在同一图上进行几次backward调用,我们需要将retain_graph=True传递给向backward调用。

禁用梯度跟踪

默认情况下,所有具有requires_grad=True张量都在跟踪其计算历史并支持梯度计算。然而,在某些情况下,我们不需要这样做,例如,当我们训练了模型,只想将其应用于一些输入数据时,即我们只想通过网络进行前向计算。我们可以通过用torch.no_grad()块包围我们的计算代码来停止跟踪计算:

python 复制代码
z = torch.matmul(x, w)+b
print(z.requires_grad)

with torch.no_grad():
    z = torch.matmul(x, w)+b
print(z.requires_grad)
shell 复制代码
True
False

另一种实现相同结果的方法是在张量上使用detach()方法:

python 复制代码
z = torch.matmul(x, w)+b
z_det = z.detach()
print(z_det.requires_grad)
shell 复制代码
False

您可能想要禁用梯度跟踪是有原因的:

将神经网络中的一些参数标记为冻结参数。

当你只做正向传递时,为了加快计算速度,因为对不跟踪梯度的张量进行计算会更有效率。

相关推荐
皮卡兵快跑18 小时前
小试牛刀-基于几何要素分辨insar升降轨道数据
python·arcpy
j .18 小时前
Java 集合的核心概念笔记
开发语言·python
宸津-代码粉碎机18 小时前
Spring 6.0+Boot 3.0实战避坑全指南:5大类高频问题与解决方案(附代码示例)
java·数据仓库·hive·hadoop·python·技术文档编写
傻啦嘿哟18 小时前
Python自动整理音乐文件:按艺术家和专辑分类歌曲
数据库·python·分类
weixin_4624462318 小时前
基于 Flask + lunar-python 的农历转换 API 实战(公历 ↔ 农历 / 干支 / 生肖 / 节日)
python·flask·节日
weixin_5795996618 小时前
编写一个程序,输入两个数字的加减乘除余数(Python版)
开发语言·python
liu****18 小时前
02_Pandas_数据结构
数据结构·python·pandas·python基础
RFCEO19 小时前
用手机写 Python程序解决方案
开发语言·python·智能手机·qpython环境安装
0思必得019 小时前
[Web自动化] Requests模块基本使用
运维·前端·python·自动化·html·web自动化
AAA简单玩转程序设计19 小时前
救命!Python 这些基础操作居然能省一半工作量
python