动手学深度学习(Pytorch版)代码实践 -卷积神经网络-22池化层

22池化层

python 复制代码
import torch
from torch import nn

# 最大汇聚层和平均汇聚层
def pool2d(X, pool_size, mode='max'):
    p_h, p_w = pool_size
    Y = torch.zeros((X.shape[0] - p_h + 1, X.shape[1] - p_w + 1))
    for i in range(Y.shape[0]):
        for j in range(Y.shape[1]):
            if mode == 'max':
                Y[i, j] = X[i: i + p_h, j: j + p_w].max()
            elif mode == 'avg':
                Y[i, j] = X[i: i + p_h, j: j + p_w].mean()
    return Y

X = torch.tensor([[0.0, 1.0, 2.0], [3.0, 4.0, 5.0], [6.0, 7.0, 8.0]])
print(pool2d(X, (2, 2)))
#(3 - 2 + 0 + 1) / 1 * (3 - 2 + 0 + 1) / 1
"""
tensor([[4., 5.],
        [7., 8.]])
"""
print(pool2d(X, (2, 2), 'avg'))
"""
tensor([[2., 3.],
        [5., 6.]])
"""

# 填充和步幅
X = torch.arange(16, dtype=torch.float32).reshape((1, 1, 4, 4))

#默认情况下,深度学习框架中的步幅与汇聚窗口的大小相同
#如果我们使用形状为(3, 3)的汇聚窗口,
#那么默认情况下,我们得到的步幅形状为(3, 3)。
pool2d = nn.MaxPool2d(3)
# (4 - 3 + 0 + 3) / 3 * (4 - 3 + 0 + 3) / 3
print(pool2d(X))
# 输入张量的大小是 4x4,而池化窗口是 3x3,
# 并且步幅也是 3,导致只能提取一个 3x3 的窗口
#tensor([[[[10.]]]])

# 手动设定填充和步幅
pool2d = nn.MaxPool2d(3, padding=1, stride=2)
# (4 - 3 + 2 + 2) / 2  * (4 - 3 + 2 + 2) / 2 
print(pool2d(X))
"""
tensor([[[[ 5.,  7.],
          [13., 15.]]]])
"""

pool2d = nn.MaxPool2d((2, 3), padding=(0, 1), stride=(2, 3))
# (4 - 2 + 0 + 2) / 2 * (4 - 3 + 2 + 3) / 3
print(pool2d(X))
"""
tensor([[[[ 5.,  7.],
          [13., 15.]]]])
"""

# 多个通道
# torch.cat 函数用于在指定的维度上拼接张量
#构建具有2个通道的输入
X = torch.cat((X, X + 1), 1)
print(X)
print(X.shape)
"""
tensor([[[[ 0.,  1.,  2.,  3.],
          [ 4.,  5.,  6.,  7.],
          [ 8.,  9., 10., 11.],
          [12., 13., 14., 15.]],

         [[ 1.,  2.,  3.,  4.],
          [ 5.,  6.,  7.,  8.],
          [ 9., 10., 11., 12.],
          [13., 14., 15., 16.]]]])
torch.Size([1, 2, 4, 4])
"""

pool2d = nn.MaxPool2d(3, padding=1, stride=2)
# (4 - 3 + 2 + 2) / 2 * (4 - 3 + 2 + 2) / 2
# print(pool2d(X))
"""
tensor([[[[ 5.,  7.],
          [13., 15.]],

         [[ 6.,  8.],
          [14., 16.]]]])
"""
相关推荐
Uzuki3 小时前
AI可解释性 II | Saliency Maps-based 归因方法(Attribution)论文导读(持续更新)
深度学习·机器学习·可解释性
byxdaz6 小时前
PyTorch中Linear全连接层
pytorch
Start_Present6 小时前
Pytorch 第十二回:循环神经网络——LSTM模型
pytorch·rnn·神经网络·数据分析·lstm
snowfoootball9 小时前
基于 Ollama DeepSeek、Dify RAG 和 Fay 框架的高考咨询 AI 交互系统项目方案
前端·人工智能·后端·python·深度学习·高考
odoo中国9 小时前
深度学习 Deep Learning 第15章 表示学习
人工智能·深度学习·学习·表示学习
橙色小博9 小时前
长短期记忆神经网络(LSTM)基础学习与实例:预测序列的未来
人工智能·python·深度学习·神经网络·lstm
船长@Quant9 小时前
PyTorch量化进阶教程:第六章 模型部署与生产化
pytorch·python·深度学习·transformer·量化交易·sklearn·ta-lib
byxdaz9 小时前
PyTorch中卷积层torch.nn.Conv2d
pytorch
zy_destiny11 小时前
【工业场景】用YOLOv12实现饮料类别识别
人工智能·python·深度学习·yolo·机器学习·计算机视觉·目标跟踪