pytorch-池化层

目录

  • [1. pooling池化层](#1. pooling池化层)
    • [1.1 down sample](#1.1 down sample)
    • [2.2 Max pooling](#2.2 Max pooling)
    • [1.3 Avg pooling](#1.3 Avg pooling)
    • [1.3 pooling pytorch实现](#1.3 pooling pytorch实现)
  • [2. up sample上采样](#2. up sample上采样)
    • [2.1 up sample](#2.1 up sample)
    • [2.2 pytorch实现](#2.2 pytorch实现)
  • [3. ReLU](#3. ReLU)

1. pooling池化层

1.1 down sample

见下图,隔行隔列采样

2.2 Max pooling

下图采用2x2的filter,步长是2,找到每个窗口的最大值

1.3 Avg pooling

下图采用2x2的filter,步长是2,求每个窗口的平均值值

1.3 pooling pytorch实现

pooling在pytorch也有两种方法,一种是类方法nn.MaxPool2d,另一种是F.avg_pool2d

总结:池化层的作用就是下采样

2. up sample上采样

2.1 up sample

图像上采样类似下图

2.2 pytorch实现

上采样使用F.interpolate函数

scale_factor决定了上采样的倍数

mode参数是插值算法,具体见官方文档

3. ReLU

下图是ReLU前后的两张feature map

ReLu input>0时,out是个线性函数

input<0时,out = 0

从图中可以看出在ReLU的作用下,负值变为0

pytorch实现

ReLU在pytorch也有两种方法,一种是类方法nn.ReLU,另一种是F.relu

相关推荐
邵奈一几秒前
M1 Max Mac版本实测 Rapid-MLX 项目(据说比ollama快4倍)
人工智能·macos·大模型
未来之窗软件服务2 分钟前
标准化法—计算机等级考试—软件设计师考前备忘录—东方仙盟
人工智能·仙盟创梦ide·东方仙盟·计算机考试
IJCAST3 分钟前
Exploring the Frontiers of Complexity: Latest Research from IJCAST
人工智能·深度学习·神经网络·算法
Yuezero_6 分钟前
Latent Manifold理论分析
人工智能·算法·机器学习
摸鱼仙人~6 分钟前
自动驾驶经验迁移到AI编码的可行性与方法论研究
人工智能·机器学习·自动驾驶
AI视觉网奇9 分钟前
数字人大模型 daVinci-MagiHuman
人工智能·深度学习
数据与后端架构提升之路9 分钟前
大规模深度学习性能调优:自顶向下的五件套
人工智能·深度学习
子豪-中国机器人12 分钟前
词云支持的 所有核心效果
python
摸鱼仙人~13 分钟前
借鉴自动驾驶运行态安全经验,保障 AI Coding 实时产出安全的方法论研究
人工智能·安全·自动驾驶
ftpeak14 分钟前
LangGraph Agent 开发指南(1~概述)
人工智能·ai·langchain·langgraph