动手学深度学习(Pytorch版)代码实践 -卷积神经网络-21多输入多输出通道

21多输入多输出通道


python 复制代码
import torch
from d2l import torch as d2l

def corr2d(X, K):
    """计算二维互相关运算"""
    h, w = K.shape
    Y = torch.zeros((X.shape[0] - h + 1, X.shape[1] - w + 1))
    for i in range(Y.shape[0]):
        for j in range(Y.shape[1]):
            Y[i, j] = (X[i:i + h, j:j + w] * K).sum()
    return Y

# 多输入通道互相关运算
def corr2d_multi_in(X, K):
     #对于每对输入通道 x 和滤波器 k,调用 corr2d 函数,并将所有结果相加。
     return sum(corr2d(x, k) for x, k in zip(X, K))
    #zip(X, K) 会生成一个元组迭代器,其中每个元组包含 X 和 K 中的对应元素

# X 是一个具有两个输入通道的张量,K 是一个具有两个通道的滤波器。
X = torch.tensor([[[0.0, 1.0, 2.0], [3.0, 4.0, 5.0], [6.0, 7.0, 8.0]],
               [[1.0, 2.0, 3.0], [4.0, 5.0, 6.0], [7.0, 8.0, 9.0]]])
K = torch.tensor([[[0.0, 1.0], [2.0, 3.0]], [[1.0, 2.0], [3.0, 4.0]]])

print(corr2d_multi_in(X, K))
"""
tensor([[ 56.,  72.],
        [104., 120.]])
"""

# 多输出通道
def corr2d_multi_in_out(X, K):
    #对于每个输出通道的滤波器 k,调用 corr2d_multi_in 函数,并将所有结果堆叠在一起形成新的张量。
    return torch.stack([corr2d_multi_in(X, k) for k in K], 0)

# 将 K 扩展为一个具有三个输出通道的新滤波器
# K,K中每个元素加1,K中每个元素加2
K = torch.stack((K, K + 1, K + 2), 0)
print(K.shape)
#torch.Size([3, 2, 2, 2])
#具有3个输出通道、每个输出通道有2个输入通道的2x2滤波器的卷积核集合。
"""
第0维:新维度插入到最前面,堆叠的张量沿着第0维度排列。torch.Size([3, 2, 2, 2])
第1维:新维度插入到第二个位置,堆叠的张量沿着第1维度排列。torch.Size([2, 3, 2, 2])
第2维:新维度插入到第三个位置,堆叠的张量沿着第2维度排列。torch.Size([2, 2, 3, 2])
"""

print(corr2d_multi_in_out(X, K))
"""
tensor([[[ 56.,  72.],
         [104., 120.]],

        [[ 76., 100.],
         [148., 172.]],

        [[ 96., 128.],
         [192., 224.]]])
"""

# 1 * 1 卷积核
#可以将卷积层看作在每个像素位置应用的全连接层
#以c_i个输入值转换为c_o个输出值
def corr2d_multi_in_out_1x1(X, K):
    c_i, h, w = X.shape #获取输入张量 X 的通道数、高度和宽度。
    c_o = K.shape[0] #获取卷积核 K 的输出通道数。
    X = X.reshape((c_i, h * w)) # 3 * 9
    K = K.reshape((c_o, c_i)) # 2 * 3

    Y = torch.matmul(K, X)
    return Y.reshape((c_o, h, w)) # 2 * 3 * 3

X = torch.normal(0, 1, (3, 3, 3))

#表示具有2个输出通道,每个通道对应3个输入通道 1x1的滤波器
K = torch.normal(0, 1, (2, 3, 1, 1))
Y1 = corr2d_multi_in_out_1x1(X, K)
Y2 = corr2d_multi_in_out(X, K)
assert float(torch.abs(Y1 - Y2).sum()) < 1e-6
相关推荐
cici1587426 分钟前
卡尔曼滤波器实现RBF神经网络训练
人工智能·深度学习·神经网络
郝学胜-神的一滴4 小时前
深度学习优化核心:梯度下降与网络训练全解析
数据结构·人工智能·python·深度学习·算法·机器学习
拓朗工控7 小时前
深度学习工控机部署实战:从硬件选型到稳定运行的避坑指南
人工智能·深度学习·智能电视·工控机
NorburyL7 小时前
DPO笔记
深度学习·算法
EnCi Zheng9 小时前
01d-前馈神经网络代码实现 [特殊字符]
人工智能·深度学习·神经网络
deephub10 小时前
为什么 MCP 在协议层会有 prompt injection的问题:工具描述如何劫持 agent 上下文
人工智能·深度学习·大语言模型·ai-agent·mcp
配奇12 小时前
RNN及其变体
人工智能·rnn·深度学习
卷卷说风控12 小时前
【卷卷观察】硅谷要把AI数据中心扔进海里,这操作我服了
人工智能·深度学习
玩转单片机与嵌入式13 小时前
TInyML基础:“不用死记公式!一文讲透全连接层:它到底把神经网络‘连’成了什么样?”
人工智能·深度学习·神经网络
隔壁大炮13 小时前
第二章 脑电、诱发电位和事件相关电位
人工智能·深度学习·erp·eeg·脑电信号