卷积层里的多输入输出通道
1、 多输入通道:
当输入包含多个通道时,需要构造一个输入通道与之相等的卷积核,以便进行数据互相关计算。
例如李沐老师中的例子:
输入有两个通道(前后),故卷积核也应有两个输入通道。
计算式子如下:
(11 + 2 2 + 43 + 5 4) + (00 + 1 1 + 32 + 43) = 56
代码演示:
python
import torch
from d2l import torch as d2l
def corr2d_multi_in(X, K):
# 先遍历"X"和"K"的第0个维度(通道维度),再把它们加在一起
return sum(d2l.corr2d(x, k) for x, k in zip(X, K))
python
X = torch.tensor([
[[0.0, 1.0, 2.0],
[3.0, 4.0, 5.0],
[6.0, 7.0, 8.0]
],
[
[1.0, 2.0, 3.0],
[4.0, 5.0, 6.0],
[7.0, 8.0, 9.0]
]
])
K = torch.tensor([[[0.0, 1.0],
[2.0, 3.0]],
[[1.0, 2.0],
[3.0, 4.0]]
])
print(X.shape)
print(K.shape)
print(corr2d_multi_in(X, K))
输出结果:
torch.Size([2, 3, 3])
torch.Size([2, 2, 2])
tensor([[ 56., 72.],
104., 120.\]\]) **多个输入通道并不会影响输出张量个数**。 **zip()** : zip() 是将不同张量中的数据,对应位置拼接起来形成元组。 例如:
python
x = [1, 2, 3]
y = [4, 5, 6]
z = [7, 8, 9]
xyz = zip(x, y, z)
print xyz
'''结果是:'''
[(1, 4, 7), (2, 5, 8), (3, 6, 9)]
在本例子中呢,根据X,K的shape可知:
第一个元组:
tensor([[0., 1., 2.],
3., 4., 5.\], \[6., 7., 8.\]\]) tensor(\[\[0., 1.\], \[2., 3.\]\]) 第二个元组: tensor(\[\[1., 2., 3.\], \[4., 5., 6.\], \[7., 8., 9.\]\]) tensor(\[\[1., 2.\], \[3., 4.\]\])
多输出通道:
多个输出通道,也就意味着有多个卷积核的存在。
代码实现:
python
def corr2d_multi_in_out(X, K):
# 迭代"K"的第0个维度,每次都对输入"X"执行互相关运算。
# 最后将所有结果都叠加在一起
return torch.stack([corr2d_multi_in(X, k) for k in K], 0)
K = torch.stack((K, K + 1, K + 2), 0)
K.shape
torch.stack(),实现将多个张量堆叠起来,0表示从0维的位置插入。
K = torch.stack((K, K + 1, K + 2), 0) 如何理解这句代码呢?
K 一开始我们就定义了:
K = torch.tensor([[[0.0, 1.0],
2.0, 3.0\]\], \[\[1.0, 2.0\], \[3.0, 4.0\]
])
那么K+1 也就是在K的基础上,将所有元素进行加一操作。
通过stack将K,K+1,K+2 三个不同的张量(三个不同的卷积核)堆叠在一起,形成了三个输出通道。与X进行互相关操作。