pytorch-池化层

目录

  • [1. pooling池化层](#1. pooling池化层)
    • [1.1 down sample](#1.1 down sample)
    • [2.2 Max pooling](#2.2 Max pooling)
    • [1.3 Avg pooling](#1.3 Avg pooling)
    • [1.3 pooling pytorch实现](#1.3 pooling pytorch实现)
  • [2. up sample上采样](#2. up sample上采样)
    • [2.1 up sample](#2.1 up sample)
    • [2.2 pytorch实现](#2.2 pytorch实现)
  • [3. ReLU](#3. ReLU)

1. pooling池化层

1.1 down sample

见下图,隔行隔列采样

2.2 Max pooling

下图采用2x2的filter,步长是2,找到每个窗口的最大值

1.3 Avg pooling

下图采用2x2的filter,步长是2,求每个窗口的平均值值

1.3 pooling pytorch实现

pooling在pytorch也有两种方法,一种是类方法nn.MaxPool2d,另一种是F.avg_pool2d

总结:池化层的作用就是下采样

2. up sample上采样

2.1 up sample

图像上采样类似下图

2.2 pytorch实现

上采样使用F.interpolate函数

scale_factor决定了上采样的倍数

mode参数是插值算法,具体见官方文档

3. ReLU

下图是ReLU前后的两张feature map

ReLu input>0时,out是个线性函数

input<0时,out = 0

从图中可以看出在ReLU的作用下,负值变为0

pytorch实现

ReLU在pytorch也有两种方法,一种是类方法nn.ReLU,另一种是F.relu

相关推荐
じ☆冷颜〃32 分钟前
分布式系统中网络技术的演进与异构融合架构(HFNA)
笔记·python·物联网·设计模式·架构·云计算
夜思红尘3 小时前
算法--双指针
python·算法·剪枝
人工智能训练3 小时前
OpenEnler等Linux系统中安装git工具的方法
linux·运维·服务器·git·vscode·python·ubuntu
Tipriest_3 小时前
torch训练出的模型的组成以及模型训练后的使用和分析办法
人工智能·深度学习·torch·utils
QuiteCoder3 小时前
深度学习的范式演进、架构前沿与通用人工智能之路
人工智能·深度学习
周名彥3 小时前
### 天脑体系V∞·13824D完全体终极架构与全域落地研究报告 (生物计算与隐私计算融合版)
人工智能·神经网络·去中心化·量子计算·agi
MoonBit月兔4 小时前
年终 Meetup:走进腾讯|AI 原生编程与 Code Agent 实战交流会
大数据·开发语言·人工智能·腾讯云·moonbit
智航GIS4 小时前
8.2 面向对象
开发语言·python
大模型任我行4 小时前
人大:熵引导的LLM有限数据训练
人工智能·语言模型·自然语言处理·论文笔记
weixin_468466854 小时前
YOLOv13结合代码原理详细解析及模型安装与使用
人工智能·深度学习·yolo·计算机视觉·图像识别·目标识别·yolov13