卷积神经网络-池化层和激活层

**2.**池化层

根据特征图上的局部统计信息进行下采样,在保留有用信息的同时减少特征图的大小。和卷积层不同的是,池化层不包含需要学习的参数。最大池化(max-pooling)在一个局部区域选最大值作为输出,而平均池化(average pooling)计算一个局部区域的均值作为输出。局部区域池化中最大池化使用更多,而全局平均池化(global average pooling)是更常用的全局池化方法。

池化的核通常采用2×2的大小,平均池化就是计算2×2范围内的平均值,最大池化就是取该范围内的最大值。目前比较常用的是最大池化。在经过池化后,原图像的channel是不发生改变的。

池化层的作用:

  1. 增加特征平移不变性。
  2. 减小特征图大小。
  3. 最大池化可以带来非线性。

**3.**激活层

激活层的作用在于将前一层的线性输出,通过非线性的激活函数进行处理,这样用以模拟任意函数,从而增强网络的表征能力。激活层常用的函数包括sigmoid和ReLu(Rectified-Linear Unit,修正线性单元)等。激活函数是一些非线性的函数,这些函数的特性有所不同:

1.sigmoid函数可以将数值压缩到[0, 1]的区间。

2.tanh可以将数值压缩到[-1, 1]的区间。

3.ReLu函数实现一个取正的效果,所有负数的信息都抛弃。

4.LeakyReLu是一种相对折中的ReLu,认为当数值为负的时候可能也存在一定有用的信息,那么就乘以一个系数0.1(可以调整或自动学习),从而获取负数中的一部分信息。

5.Maxout使用两套参数,取其中值大的一套作为输出。

6.ELU类似于LeakyReLu,只是使用的公式不同。

以Tensorflow为例学习如何搭建这些层的方法:

卷积层:tf.nn.conv2d(input, filter, strides, padding)

激活层:tf.nn.relu()

池化层:tf.nn.max_pool()(最大池化)

相关推荐
云和数据.ChenGuang3 分钟前
机器学习之预测概率问题
人工智能·深度学习·神经网络·目标检测·机器学习·自然语言处理·语音识别
AI人工智能+4 分钟前
表格识别技术通过深度学习与计算机视觉,实现复杂表格的自动化解析与结构化输出
深度学习·计算机视觉·ocr·表格识别
鹿角片ljp10 分钟前
ET-BERT 文献逐句精读与深度解析
人工智能·深度学习·bert
郝学胜-神的一滴20 分钟前
ReLU激活函数全解析:从原理到实战,解锁深度学习核心激活单元
人工智能·pytorch·python·深度学习·算法
拾贰_C26 分钟前
【深度学习 | 输入数据】张量
人工智能·深度学习
沅_Yuan31 分钟前
基于ARIMA差分自回归移动平均的时间序列预测模型【MATLAB】
机器学习·matlab·arima·时序预测·自回归·移动平均
春末的南方城市33 分钟前
SIGGRAPH 2026 | 加州大学&Adobe提出首个可控全景视频生成框架OmniRoam,单图实现360°无限漫游,长时全景视频生成新SOTA。
人工智能·深度学习·机器学习·计算机视觉·aigc
阿拉斯攀登1 小时前
20 个 Android JNI + CMake 生产级示例
android·java·开发语言·人工智能·机器学习·无人售货柜
MRDONG11 小时前
从 Prompt 到智能体系统:Function Calling、Memory 与 Synthetic RAG 的全栈解析
人工智能·深度学习·神经网络·语言模型·自然语言处理·prompt
小江的记录本1 小时前
【 AI工程化】AI工程化:MLOps、大模型全生命周期管理、大模型安全(幻觉、Prompt注入、数据泄露、合规)
java·人工智能·后端·python·机器学习·ai·架构