在构建自己的网络时,了解数据经过每个层后的形状变化是必须的,否则,网络大概率会出现问题。PyToch张量有一个方法,叫做view(),使用这个方法,我们可以很容易的对张量的形状进行改变,从而符合网络的输入要求。
view()的基本用法很简单,只需传入想要的形状即可,
就像这样:
import torchT1=torch.arange(0,16)print(T1)print(T1.size())
tensor([ 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15])torch.Size([16])
a=T1.view(4,4)b=T1.view(2,8)print(a)print(a.size())
print(b)print(b.size())
tensor([[ 0, 1, 2, 3], [ 4, 5, 6, 7], [ 8, 9, 10, 11], [12, 13, 14, 15]])torch.Size([4, 4])
tensor([[ 0, 1, 2, 3, 4, 5, 6, 7], [ 8, 9, 10, 11, 12, 13, 14, 15]])torch.Size([2, 8])
当然,在看一些代码时,往往会发现view()中有参数-1。看下面几个例子
c=T1.view(-1,4,4)print(c)print(c.size())tensor([[[ 0, 1, 2, 3], [ 4, 5, 6, 7], [ 8, 9, 10, 11], [12, 13, 14, 15]]])torch.Size([1, 4, 4]
d=T1.view(-1,8)print(d)print(d.size())tensor([[ 0, 1, 2, 3, 4, 5, 6, 7], [ 8, 9, 10, 11, 12, 13, 14, 15]])torch.Size([2, 8])
e=T1.view(8,-1)print(e)print(e.size())tensor([[ 0, 1], [ 2, 3], [ 4, 5], [ 6, 7], [ 8, 9], [10, 11], [12, 13], [14, 15]])torch.Size([8, 2])
通过上述几个例子,view中一个参数定为-1,代表自动调整这个维度上的元素个数,同时保证元素的总个数不变 。当然,我们也注意到了这个细节:传入几个参数,代表结果有几个维度。
对于这篇文章:张量扁平化------CNN的Flatten操作
保持batch轴不变,展平其它轴,我们采用的是flatten()方法,这里我们用view()方法。
t1=torch.rand([5,3,128,128])print(t1.size())
torch.Size([5, 3, 128, 128])
t2=t1.view(5,-1)print(t2)print(t2.size())
结果符合我们的预期!