Pytorch使用教学5-视图view与reshape的区别

有同学后台留言问为什么view有时可对张量进行形变操作,有时就会报错?另外它和reshape功能好像一致,有什么区别呢?本文就带你了解PyTorch中视图的概念。

PyTorch中对张量进行形变操作时,很多同学也会使用view方法,但是经过一系列变化后,你可能会发现你的张量错乱了,而且不能继续形变。或者你可能都不知道你的张量发生了变化,一直在处理错误数据...

tensor.view方法

该方法可以改变张量结构,生成一个不同结构但共享一个存储空间的张量。也就代表view是浅拷贝的关系,修改其中一个张量,另一个张量也会同步进行更改。

Python 复制代码
# 生成一个2行3列的矩阵
t = torch.arange(6).reshape(2, 3)
t
# tensor([[0, 1, 2],
#        [3, 4, 5]])

# 将t.view(3, 2)的结果赋值给te
te = t.view(3, 2)
te
# tensor([[0, 1],
#         [2, 3],
#         [4, 5]])

这时我们对张量t进行修改,然后我们打印te,会发现te中的值也发生了变化:

Python 复制代码
# 对t的0号索引位置进行修改1
t[0] = 1

# 打印te,同步变化
te
# tensor([[1, 1],
#         [1, 3],
#         [4, 5]])

tensor.view方法会返回一个"视图"的结果,该结果和原张量对象共享一块数据存储空间,而不会生成一个新的对象,大家在使用时要格外注意。若想生成新的对象,建议使用深拷贝clone方法。

视图是什么?

视图是数据的一个别称或引用(它们物理内存在同一位置),通过该别称或引用便可访问、操作原有数据,但原有数据不会产生拷贝。如果我们对视图进行修改,它可以改变原始数据,这样就避免了重新创建张量的高内存开销。

与之对应的概念就是副本。副本是一个数据的完整的拷贝,如果我们对副本进行修改,它不会影响到原始数据,因为它们的物理内存不在同一位置。

viewreshape的区别

它们功能看似一样,那么两者都存在的意义是什么呢?先给出结论:

  • view:只适用于满足连续性条件的Tensor,并且该操作不会开辟新的内存空间,只是原数据的别称或引用,返回值是视图。
  • reshape:当Tensor满足连续性时,与view方法相同,返回的是视图;当Tensor不满足连续性时,返回的是副本。

这里的关键词就是连续性。我们使用代码进行说明:

Python 复制代码
a = torch.arange(6).reshape(2, 3) 
print(a.shape)
# torch.Size([2, 3])

# is_contiguous()判断是否连续
print(a.is_contiguous())
# True

可以看出,在利用torch.arange函数进行Tensor创建时,获取的Tensor元素地址是连续内存空间保存的。如果对的Tensor进行转置操作:

Python 复制代码
b = a.permute(1, 0)
print(b.shape)
# torch.Size([3, 2])

print(b.is_contiguous())
# False

我们发现经过转置以后,Tensor会变成非连续保存类型uncontiguous。那么,变成非连续保存类型后,就不能使用view对它进行形变操作,否则就会报错:

Python 复制代码
b.view(2, 3)
# RuntimeError

但这时我们可以使用reshape对其进行形变,并且会新开建一块地址进行储存:

Python 复制代码
c = b.reshape(2, 3)
c
# tensor([[0, 3, 1],
#         [4, 2, 5]])

# 改变原始张量a的数据
a[0][1] = 222
a
# tensor([[  0, 222,   2],
#         [  3,   4,   5]])

# 此时c不会改变
c = b.reshape(2, 3)
c
# tensor([[0, 3, 1],
#         [4, 2, 5]])

# 但是b的数据会变,因为b和a还共有同一储存地址
b
# tensor([[  0,   3],
#         [222,   4],
#         [  2,   5]])

是不是很神奇?其实view可以做的,reshape都可以做。reshape相当于先开辟了一个新地址,这个地址储存了和之前数据一样的连续性数据,再进行了view操作,就是使用contiguous方法:

Python 复制代码
# 先开辟一个新地址将数据复制,再进行view操作:
b.contiguous().view(2, 3)
b
# tensor([[0, 3, 1],
#         [4, 2, 5]])

reshape方法的内部执行过程:

  • 如果张量是满足连续,那么它就直接调用view方法
  • 如果张量不连续,就先调用contiguous方法进行拷贝,再使用view方法进行转换

view的存在可以明确表示对张量的操作只能是视图操作而非拷贝操作。这对于代码的可读性以及后续可能的bug查找比较友好。

而如果您一定要对张量进行形变,建议直接使用reshape

这就是reshapeview的区别,还需同学们多多梳理理解,在实际使用时避坑。

Pytorch张量操作大全:

Pytorch使用教学1-Tensor的创建
Pytorch使用教学2-Tensor的维度
Pytorch使用教学3-特殊张量的创建与类型转化
Pytorch使用教学4-张量的索引
Pytorch使用教学5-视图view与reshape的区别
Pytorch使用教学6-张量的分割与合并
Pytorch使用教学7-张量的广播
Pytorch使用教学8-张量的科学运算
Pytorch使用教学9-张量的线性代数运算
Pytorch使用教学10-张量操作方法大总结

相关推荐
撞南墙者5 分钟前
OpenCV自学系列(1)——简介和GUI特征操作
人工智能·opencv·计算机视觉
OCR_wintone4216 分钟前
易泊车牌识别相机,助力智慧工地建设
人工智能·数码相机·ocr
进击的六角龙24 分钟前
Python中处理Excel的基本概念(如工作簿、工作表等)
开发语言·python·excel
王哈哈^_^28 分钟前
【数据集】【YOLO】【VOC】目标检测数据集,查找数据集,yolo目标检测算法详细实战训练步骤!
人工智能·深度学习·算法·yolo·目标检测·计算机视觉·pyqt
一者仁心34 分钟前
【AI技术】PaddleSpeech
人工智能
写代码的小阿帆35 分钟前
pytorch实现深度神经网络DNN与卷积神经网络CNN
pytorch·cnn·dnn
是瑶瑶子啦42 分钟前
【深度学习】论文笔记:空间变换网络(Spatial Transformer Networks)
论文阅读·人工智能·深度学习·视觉检测·空间变换
一只爱好编程的程序猿1 小时前
Java后台生成指定路径下创建指定名称的文件
java·python·数据下载
EasyCVR1 小时前
萤石设备视频接入平台EasyCVR多品牌摄像机视频平台海康ehome平台(ISUP)接入EasyCVR不在线如何排查?
运维·服务器·网络·人工智能·ffmpeg·音视频
Aniay_ivy1 小时前
深入探索 Java 8 Stream 流:高效操作与应用场景
java·开发语言·python