深度学习|pytorch基本运算-广播失效

【1】引言

前序文章中,已经学习了pytorch基本运算中的生成随机张量、生成多维张量,以及张量的变形、加减和广播运算。

今天的文章在之前学习的基础上,进一步探索。

前序文章链接为:

深度学习|pytorch基本运算-CSDN博客

【2】广播失效

前序文章在最后给出了广播运算的基础代码:

python 复制代码
# 导入包
import torch
# 生成多为维张量
y=torch.tensor([1,2,3])
z=torch.tensor([
    [3],
    [2],
    [1]
])
#打印
print('y=',y)
print('z=',z)
# 
a=y+z
print('a=',a)

在这个项目中,行向量y会沿着行广播(复制),列向量z会沿着列广播(复制),实际运行效果和下述代码一样:

python 复制代码
# 导入包
import torch
# 生成多为维张量
y=torch.tensor([[1,2,3],
               [1,2,3],
                [1,2,3]])
z=torch.tensor([
    [3,3,3],
    [2,2,2],
    [1,1,1]
])
#打印
print('y=',y)
print('z=',z)
#
a=y+z
print('a=',a)

实际运行后的效果为:

++图1 广播运行效果++

但实际上,如果稍微修改代码,就会有广播失效的情况:

python 复制代码
# 导入包
import torch
# 生成多为维张量
y=torch.tensor([[1,2,3,1],
               [1,2,3,1],
                [1,2,3,1]])
z=torch.tensor([
    [3,3,3],
    [2,2,2],
    [1,1,1]
])
#打印
print('y=',y)
print('z=',z)
#
a=y+z
print('a=',a)

上述代码运行后,会直接报错:

a=y+z

~^~

RuntimeError: The size of tensor a (4) must match the size of tensor b (3) at non-singleton dimension 1

这里报错的意思是:在非单例维度1上,第一个矩阵a有4个数,第二个矩阵b有3个数,无法匹配。

在pytorch中,对于维度的规定是:

在竖直方向是第0维度, 代码中的y和z都有3行,匹配;

在水平方向是第1维度, 代码中的y和z分别有4列和3列,不匹配,无法广播。

需要注意到报错信息中,a(4)和b(3)是python语言报错的惯用写法,实际对应的就是y(4)和z(3)。

真实的不匹配来源是:**矩阵y有4列数据,矩阵z有3列数据,矩阵z既不可能每一列都复制一遍来广播,也不可能任选一列复制来广播,所以无法广播;但对于单独的一列,则没有这样的烦恼,直接每一列都复制即可。**比如下述代码:

python 复制代码
# 导入包
import torch
# 生成多为维张量
y=torch.tensor([[1,2,3,1],
               [1,2,3,1],
                [1,2,3,1]])
z=torch.tensor([
    [3],
    [2],
    [1]
])
#打印
print('y=',y)
print('z=',z)
#
a=y+z
print('a=',a)

运行后的效果为:

++图2 单列多行广播运行效果++

上述情况是第1维度即列的原因造成的无法广播,如果修改第0维度即行来测试,有如下代码:

python 复制代码
# 导入包
import torch
# 生成多为维张量
y=torch.tensor([[1,2,3,1],
               [1,2,3,1],
                [1,2,3,1]])
z=torch.tensor([
    [3],
    [2],
    [1],
    [1]
])
#打印
print('y=',y)
print('z=',z)
#
a=y+z
print('a=',a)

代码运行后的报错为:

a=y+z

~^~

RuntimeError: The size of tensor a (3) must match the size of tensor b (4) at non-singleton dimension 0

和前述分析的原因一样:3行和4行不对应,无法广播。

矩阵y有3行数据,矩阵z有4行数据,矩阵y既不可能每一行都复制一遍来广播,也不可能任选一行复制来广播,所以无法广播。

【3】总结

探索了pytorch的基本运算中广播失效的情况及其原因。

相关推荐
子燕若水3 小时前
Unreal Engine 5中的AI知识
人工智能
极限实验室4 小时前
Coco AI 实战(一):Coco Server Linux 平台部署
人工智能
杨过过儿4 小时前
【学习笔记】4.1 什么是 LLM
人工智能
巴伦是只猫4 小时前
【机器学习笔记Ⅰ】13 正则化代价函数
人工智能·笔记·机器学习
伍哥的传说4 小时前
React 各颜色转换方法、颜色值换算工具HEX、RGB/RGBA、HSL/HSLA、HSV、CMYK
深度学习·神经网络·react.js
大千AI助手4 小时前
DTW模版匹配:弹性对齐的时间序列相似度度量算法
人工智能·算法·机器学习·数据挖掘·模版匹配·dtw模版匹配
AI生存日记5 小时前
百度文心大模型 4.5 系列全面开源 英特尔同步支持端侧部署
人工智能·百度·开源·open ai大模型
LCG元5 小时前
自动驾驶感知模块的多模态数据融合:时序同步与空间对齐的框架解析
人工智能·机器学习·自动驾驶
why技术5 小时前
Stack Overflow,轰然倒下!
前端·人工智能·后端