从0开始深度学习(26)——汇聚层/池化层

池化层通过减少特征图的尺寸来降低计算量和参数数量,同时增加模型的平移不变性和鲁棒性。汇聚层的主要优点之一是减轻卷积层对位置的过度敏感。

1 最大汇聚层、平均汇聚层

汇聚层和卷积核一样,是在输入图片上进行滑动计算,但是不同于卷积层的互相关运算,汇聚层的运算通常是计算汇聚窗口中所有元素的最大值或平均值。

1.1 最大汇聚层

上面操作的代码如下:

python 复制代码
import torch
from torch import nn

X = torch.tensor([[[0.0, 1.0, 2.0], [3.0, 4.0, 5.0], [6.0, 7.0, 8.0]]])

# 设置一个2*2的最大池化层
max_pooling=nn.MaxPool2d(kernel_size=2,stride=1)

# 执行卷积操作
y = max_pooling(X)

print(y.shape)
print(y)  

运行结果

1.2 平均汇聚层

python 复制代码
import torch
from torch import nn

X = torch.tensor([[[0.0, 1.0, 2.0], [3.0, 4.0, 5.0], [6.0, 7.0, 8.0]]])

# 设置一个2*2的最大池化层
avg_pooling=nn.AvgPool2d(kernel_size=2,stride=1)

# 执行卷积操作
y = avg_pooling(X)

print(y.shape)
print(y)  

运行结果

2 填充和步幅

torch自带的汇聚层函数也可以进行填充和步幅设置。

2.1 平均汇聚层

AvgPool2d 的基本用法

参数说明

  • kernel_size: 池化窗口的大小,可以是一个整数或一个元组 (height, width)。
  • stride: 池化窗口的移动步幅,默认值为 kernel_size。
  • padding: 输入特征图的边缘填充大小,默认值为 0
  • count_include_pad: 是否在计算平均值时包括填充的零,默认值为 True。
  • divisor_override: 用于除法的自定义除数,默认值为 None,表示使用窗口大小作为除数。

2.2 最大池化层

MaxPool2d 的基本用法

参数说明

  • kernel_size: 池化窗口的大小,可以是一个整数或一个元组 (height, width)。
  • stride: 池化窗口的移动步幅,默认值为 kernel_size。
  • padding: 输入特征图的边缘填充大小,默认值为 0。
  • dilation: 池化窗口的膨胀系数,默认值为 1。
  • return_indices: 是否返回最大值的索引,默认值为 False。
  • ceil_mode: 是否使用向上取整的方式计算输出尺寸,默认值为 False。

3 多个通道

在处理多通道输入数据时,汇聚层的输出通道数与输入通道数相同。

相关推荐
美团技术团队6 分钟前
美团 LongCat-Video-Avatar 正式发布,实现开源SOTA级拟真表现
人工智能
SickeyLee7 分钟前
基于Dify智能体开发平台开发一个目标检测智能体
人工智能·计算机视觉·目标跟踪
AI科技星8 分钟前
统一场论框架下万有引力常数的量子几何涌现与光速关联
数据结构·人工智能·算法·机器学习·重构
Coder个人博客15 分钟前
Apollo Canbus 底盘通信模块接口调用流程图与源码分析
人工智能·自动驾驶·apollo
孟祥_成都15 分钟前
前端和小白都能看懂的 LangChain Model 模块核心实战指南
前端·人工智能
玄微云19 分钟前
玄微科技:大健康数智化的 4 个 AI 智能体落地要点
大数据·人工智能·科技·软件需求·门店管理
蓝鲨硬科技19 分钟前
黄仁勋“梭哈”的物理AI,正在被中国企业变成现实
人工智能·chatgpt
Coder个人博客19 分钟前
Apollo Prediction 预测模块接口调用流程图与源码分析
人工智能·自动驾驶·apollo
热爱专研AI的学妹21 分钟前
【搭建工作流教程】使用数眼智能 API 搭建 AI 智能体工作流教程(含可视化流程图)
大数据·数据库·人工智能·python·ai·语言模型·流程图
LYFlied26 分钟前
Spec Coding:AI时代前端开发的范式革新
前端·人工智能·工程化·spec coding