pytorch基本运算-Python控制流梯度运算

【1】引言

前序学习进程中,已经对pytorch基本运算-梯度运算:requires_grad_(True)和backward()进行了学习,了解了pytorch求导的基本运算方法。

今天继续学习,当计算进入循环时,就进入了Python控制流,如何对Python控制流进行梯度运算就是学习目标。

【2】Python控制流循环运算对应梯度

这里我们使用一个代码实例来体会梯度运算。

首先引入模块:

python 复制代码
# 引入模块
import torch

这里的目的是引入Pytorch模块,为之后的运算构建一个Pytorch环境。

然后定义一个常数:

python 复制代码
# 定义变量a为标准正态分布的随机数,并且允许对a求导
a=torch.randn(size=(),requires_grad=True)

这个常数会代入后面的运算,这个运算先定义了一个函数:

python 复制代码
# 定义基本函数
def f(a):
    b=a*2
    print('a0=',a)
    print('b0=', b)
    k=1
    # 如果b的绝对值小于1000,b的值扩大2倍
    # 这个扩大2倍的计算循环执行,直到b的绝对值超过1000
    while b.norm()<20:
        b=b*2
        k=k+1
        print('b[',k,']=',b)
        print('k=',k)
    # 如果b本身的值非负,c的取值就是b
    # 否则c的取值是100*b
    # 返回c值
    if b.sum()>0:
        c=b
    else:
        c=100*b
    print('c=',c)
    return c

这个自定义函数首先定义了一个b=a2,然后判断b的绝对值是否小于1000,如果满足,就不断扩大两倍,直到b的绝对值大于1000。
之后根据b的实际取值,对c进行赋值,如果b是正数,c=b,否则c=100
b。

之后就很简单,直接提取循环计算的计算结果就可以:

python 复制代码
d=f(a)
# 对自定义函数的返回值求导
d.backward()
# 输出a的导数
print('a.grad=',a.grad)
# 输出d
print('d=',d)
# 输出d/a的结果
print('d/a=',d/a)
# 输出a.grad和d/a是否相等
print('a.grad==d/a=',a.grad==d/a)

这里面对循环求导数实际上定义完a.grad就够了,单位了展示细节,分别输出了a,d/a。

代码运行后,输出的实际效果为:

a= tensor(0.9862, requires_grad=True)

a0= tensor(0.9862, requires_grad=True)

b0= tensor(1.9725, grad_fn=)

b[ 2 ]= tensor(3.9450, grad_fn=)

k= 2

b[ 3 ]= tensor(7.8899, grad_fn=)

k= 3

b[ 4 ]= tensor(15.7799, grad_fn=)

k= 4

b[ 5 ]= tensor(31.5597, grad_fn=)

k= 5

c= tensor(31.5597, grad_fn=)

a.grad= tensor(32.)

d= tensor(31.5597, grad_fn=)

d/a= tensor(32., grad_fn=)

a.grad==d/a= tensor(True)

这里的最开始获得随机数a=0.9862,然后它扩大2倍赋值给b,b<1000,所以会继续不断按照2倍的速率扩大,直到b>1000,刚好计算了5次,也就是k的取值。

由于b>0,所以c的取值就是b,因为b相对a扩大了5次,所以循环计算对a的导数就是2^5=32。这个值就是d/a的结果。

如果再计算一次,a的取值为负:

a= tensor(-2.3740, requires_grad=True)

a0= tensor(-2.3740, requires_grad=True)

b0= tensor(-4.7480, grad_fn=)

b[ 2 ]= tensor(-9.4960, grad_fn=)

k= 2

b[ 3 ]= tensor(-18.9921, grad_fn=)

k= 3

b[ 4 ]= tensor(-37.9842, grad_fn=)

k= 4

c= tensor(-3798.4180, grad_fn=)

a.grad= tensor(1600.)

d= tensor(-3798.4180, grad_fn=)

d/a= tensor(1600., grad_fn=)

a.grad==d/a= tensor(True)

此时b会在往负数不断变小的方向上,按照2倍的速率扩大绝对值,一共计算了4次。

由于b<0,所以c的取值就是b*100,因为b相对a扩大45次,所以循环计算对a的导数就是(2^4)*100=1600。这个值就是d/a的结果。

此时的完整代码为:

python 复制代码
# 引入模块
import torch

# 定义基本函数
def f(a):
    b=a*2
    print('a0=',a)
    print('b0=', b)
    k=1
    # 如果b的绝对值小于1000,b的值扩大2倍
    # 这个扩大2倍的计算循环执行,直到b的绝对值超过1000
    while b.norm()<20:
        b=b*2
        k=k+1
        print('b[',k,']=',b)
        print('k=',k)
    # 如果b本身的值非负,c的取值就是b
    # 否则c的取值是100*b
    # 返回c值
    if b.sum()>0:
        c=b
    else:
        c=100*b
    print('c=',c)
    return c
# 定义变量a为标准正态分布的随机数,并且允许对a求导
a=torch.randn(size=(),requires_grad=True)
# 输出a
print('a=',a)
# 将a代入自定义函数
d=f(a)
# 对自定义函数的返回值求导
d.backward()
# 输出a的导数
print('a.grad=',a.grad)
# 输出d
print('d=',d)
# 输出d/a的结果
print('d/a=',d/a)
# 输出a.grad和d/a是否相等
print('a.grad==d/a=',a.grad==d/a)

【3】总结

学习了以循环为基础的Python控制流梯度运算的基本方法。

相关推荐
杜子不疼.12 分钟前
进程控制(四):自主Shell命令行解释器
linux·c语言·人工智能
qwerasda12385215 分钟前
基于Faster-RCNN_R50_Caffe_FPN_1x_COCO的绿豆计数与识别系统深度学习Python代码实现
python·深度学习·caffe
编码小哥7 小时前
OpenCV Haar级联分类器:人脸检测入门
人工智能·计算机视觉·目标跟踪
程序员:钧念8 小时前
深度学习与强化学习的区别
人工智能·python·深度学习·算法·transformer·rag
数据与后端架构提升之路8 小时前
TeleTron 源码揭秘:如何用适配器模式“无缝魔改” Megatron-Core?
人工智能·python·适配器模式
Chef_Chen9 小时前
数据科学每日总结--Day44--机器学习
人工智能·机器学习
这张生成的图像能检测吗9 小时前
(论文速读)FR-IQA:面向广义图像质量评价:放松完美参考质量假设
人工智能·计算机视觉·图像增强·图像质量评估指标
hele_two9 小时前
快速幂算法
c++·python·算法
KG_LLM图谱增强大模型9 小时前
本体论与知识图谱:揭示语义技术的核心差异
人工智能·知识图谱·本体论
l1t10 小时前
利用DeepSeek将python DLX求解数独程序格式化并改成3.x版本
开发语言·python·算法·数独