Pytorch使用教学5-视图view与reshape的区别

有同学后台留言问为什么view有时可对张量进行形变操作,有时就会报错?另外它和reshape功能好像一致,有什么区别呢?本文就带你了解PyTorch中视图的概念。

PyTorch中对张量进行形变操作时,很多同学也会使用view方法,但是经过一系列变化后,你可能会发现你的张量错乱了,而且不能继续形变。或者你可能都不知道你的张量发生了变化,一直在处理错误数据...

tensor.view方法

该方法可以改变张量结构,生成一个不同结构但共享一个存储空间的张量。也就代表view是浅拷贝的关系,修改其中一个张量,另一个张量也会同步进行更改。

Python 复制代码
# 生成一个2行3列的矩阵
t = torch.arange(6).reshape(2, 3)
t
# tensor([[0, 1, 2],
#        [3, 4, 5]])

# 将t.view(3, 2)的结果赋值给te
te = t.view(3, 2)
te
# tensor([[0, 1],
#         [2, 3],
#         [4, 5]])

这时我们对张量t进行修改,然后我们打印te,会发现te中的值也发生了变化:

Python 复制代码
# 对t的0号索引位置进行修改1
t[0] = 1

# 打印te,同步变化
te
# tensor([[1, 1],
#         [1, 3],
#         [4, 5]])

tensor.view方法会返回一个"视图"的结果,该结果和原张量对象共享一块数据存储空间,而不会生成一个新的对象,大家在使用时要格外注意。若想生成新的对象,建议使用深拷贝clone方法。

视图是什么?

视图是数据的一个别称或引用(它们物理内存在同一位置),通过该别称或引用便可访问、操作原有数据,但原有数据不会产生拷贝。如果我们对视图进行修改,它可以改变原始数据,这样就避免了重新创建张量的高内存开销。

与之对应的概念就是副本。副本是一个数据的完整的拷贝,如果我们对副本进行修改,它不会影响到原始数据,因为它们的物理内存不在同一位置。

viewreshape的区别

它们功能看似一样,那么两者都存在的意义是什么呢?先给出结论:

  • view:只适用于满足连续性条件的Tensor,并且该操作不会开辟新的内存空间,只是原数据的别称或引用,返回值是视图。
  • reshape:当Tensor满足连续性时,与view方法相同,返回的是视图;当Tensor不满足连续性时,返回的是副本。

这里的关键词就是连续性。我们使用代码进行说明:

Python 复制代码
a = torch.arange(6).reshape(2, 3) 
print(a.shape)
# torch.Size([2, 3])

# is_contiguous()判断是否连续
print(a.is_contiguous())
# True

可以看出,在利用torch.arange函数进行Tensor创建时,获取的Tensor元素地址是连续内存空间保存的。如果对的Tensor进行转置操作:

Python 复制代码
b = a.permute(1, 0)
print(b.shape)
# torch.Size([3, 2])

print(b.is_contiguous())
# False

我们发现经过转置以后,Tensor会变成非连续保存类型uncontiguous。那么,变成非连续保存类型后,就不能使用view对它进行形变操作,否则就会报错:

Python 复制代码
b.view(2, 3)
# RuntimeError

但这时我们可以使用reshape对其进行形变,并且会新开建一块地址进行储存:

Python 复制代码
c = b.reshape(2, 3)
c
# tensor([[0, 3, 1],
#         [4, 2, 5]])

# 改变原始张量a的数据
a[0][1] = 222
a
# tensor([[  0, 222,   2],
#         [  3,   4,   5]])

# 此时c不会改变
c = b.reshape(2, 3)
c
# tensor([[0, 3, 1],
#         [4, 2, 5]])

# 但是b的数据会变,因为b和a还共有同一储存地址
b
# tensor([[  0,   3],
#         [222,   4],
#         [  2,   5]])

是不是很神奇?其实view可以做的,reshape都可以做。reshape相当于先开辟了一个新地址,这个地址储存了和之前数据一样的连续性数据,再进行了view操作,就是使用contiguous方法:

Python 复制代码
# 先开辟一个新地址将数据复制,再进行view操作:
b.contiguous().view(2, 3)
b
# tensor([[0, 3, 1],
#         [4, 2, 5]])

reshape方法的内部执行过程:

  • 如果张量是满足连续,那么它就直接调用view方法
  • 如果张量不连续,就先调用contiguous方法进行拷贝,再使用view方法进行转换

view的存在可以明确表示对张量的操作只能是视图操作而非拷贝操作。这对于代码的可读性以及后续可能的bug查找比较友好。

而如果您一定要对张量进行形变,建议直接使用reshape

这就是reshapeview的区别,还需同学们多多梳理理解,在实际使用时避坑。

Pytorch张量操作大全:

Pytorch使用教学1-Tensor的创建
Pytorch使用教学2-Tensor的维度
Pytorch使用教学3-特殊张量的创建与类型转化
Pytorch使用教学4-张量的索引
Pytorch使用教学5-视图view与reshape的区别
Pytorch使用教学6-张量的分割与合并
Pytorch使用教学7-张量的广播
Pytorch使用教学8-张量的科学运算
Pytorch使用教学9-张量的线性代数运算
Pytorch使用教学10-张量操作方法大总结

相关推荐
好看资源平台1 小时前
网络爬虫——综合实战项目:多平台房源信息采集与分析系统
爬虫·python
果冻人工智能1 小时前
2025 年将颠覆商业的 8 大 AI 应用场景
人工智能·ai员工
代码不行的搬运工1 小时前
神经网络12-Time-Series Transformer (TST)模型
人工智能·神经网络·transformer
进击的六角龙1 小时前
深入浅出:使用Python调用API实现智能天气预报
开发语言·python
檀越剑指大厂1 小时前
【Python系列】浅析 Python 中的字典更新与应用场景
开发语言·python
石小石Orz1 小时前
Three.js + AI:AI 算法生成 3D 萤火虫飞舞效果~
javascript·人工智能·算法
湫ccc1 小时前
Python简介以及解释器安装(保姆级教学)
开发语言·python
孤独且没人爱的纸鹤1 小时前
【深度学习】:从人工神经网络的基础原理到循环神经网络的先进技术,跨越智能算法的关键发展阶段及其未来趋势,探索技术进步与应用挑战
人工智能·python·深度学习·机器学习·ai
阿_旭1 小时前
TensorFlow构建CNN卷积神经网络模型的基本步骤:数据处理、模型构建、模型训练
人工智能·深度学习·cnn·tensorflow
羊小猪~~1 小时前
tensorflow案例7--数据增强与测试集, 训练集, 验证集的构建
人工智能·python·深度学习·机器学习·cnn·tensorflow·neo4j