深度学习|表示学习|卷积神经网络|Padding(填充)的用处是什么?|12

如是我闻: Padding(填充)是卷积操作中的一个重要概念,它的主要作用是在输入图像的边界上添加像素(通常填充 0) 。Padding 的目的是解决卷积过程中 边界像素"丢失" 的问题,同时影响输出特征图的大小。


1. 为什么需要 Padding?

(1) 避免边界信息丢失
  • 卷积核在输入图像上滑动时,通常只能覆盖图像的中心区域,边界区域由于缺少足够的覆盖范围,可能得不到充分处理。
  • 如果不使用 Padding,卷积操作会缩小输入图像的大小 ,导致边界信息逐层丢失。举例:
    • 假设输入图像大小是 n × n n \times n n×n,卷积核大小是 k × k k \times k k×k,步长 s = 1 s = 1 s=1,没有填充( p = 0 p = 0 p=0)时:
      输出大小 = n − k + 1 \text{输出大小} = n - k + 1 输出大小=n−k+1
      可以看到每次卷积后图像尺寸都会变小。例如:
      • n = 5 n = 5 n=5, k = 3 k = 3 k=3 时,输出大小变为 3 × 3 3 \times 3 3×3。
      • 再叠加一层卷积,输出会变为 1 × 1 1 \times 1 1×1。
  • 这种逐层缩小的效果会让深度网络中较早的边界信息消失
(2) 控制输出特征图的大小
  • 如果希望输入和输出的大小一致(即保持边界完整),可以通过 Padding 在输入图像边界补充像素。
  • 这种方式在特征提取中非常常用,尤其在卷积神经网络中。

2. Padding 的常见类型

Padding 的方式有多种,最常见的是以下几种:

(1) Zero Padding
  • 在输入图像的边界添加值为 0 的像素。
  • 优点:
    • 不会引入新的特征信息,只用于扩展边界。
  • 应用场景:
    • 最常见的填充方式,尤其在图像处理中,Zero Padding 几乎是默认选项。
(2) Reflect Padding
  • 边界的像素值由图像内容反射生成。例如:
    原图 = [ 1 , 2 , 3 ] \text{原图} = [1, 2, 3] 原图=[1,2,3]
    Padding 后
    反射填充 = [ 2 , 1 , 1 , 2 , 3 , 3 ] \text{反射填充} = [2, 1, 1, 2, 3, 3] 反射填充=[2,1,1,2,3,3]
  • 优点:
    • 避免引入"全 0"像素的影响,保持边界像素的自然性。
(3) Replicate Padding
  • 边界像素的值直接复制。例如:
    原图 = [ 1 , 2 , 3 ] \text{原图} = [1, 2, 3] 原图=[1,2,3]
    Padding 后
    复制填充 = [ 1 , 1 , 1 , 2 , 3 , 3 ] \text{复制填充} = [1, 1, 1, 2, 3, 3] 复制填充=[1,1,1,2,3,3]
  • 优点:
    • 保持边界像素一致性,适用于特定边界敏感的场景。

3. Padding 的作用总结

(1) 控制输出大小
  • Padding 会影响输出特征图的大小。如果没有填充( p = 0 p = 0 p=0),每次卷积操作都会让输入图像缩小。
  • 如果希望输入输出大小一致,可以选择适当的 Padding 值:
    p = k − 1 2 p = \frac{k - 1}{2} p=2k−1
    其中 k k k 是卷积核的大小。例如:
    • k = 3 k = 3 k=3, p = 1 p = 1 p=1,输出大小保持不变。
(2) 保留边界信息
  • Padding 可以让卷积核覆盖到输入图像的边界像素,避免边界信息被忽略。没有 Padding 的情况下,边界像素对特征图几乎没有贡献。
(3) 增强特征提取的稳定性
  • 在深层卷积网络中,随着层数加深,输入尺寸会逐渐减小。如果没有 Padding,卷积核将只能提取图像中心的特征,边界特征容易被丢失。
  • 通过 Padding,可以保留更多全局信息,使网络提取的特征更全面。

总的来说

Padding 的主要作用是:

  1. 控制输出大小:让卷积操作后,输入和输出的尺寸可以一致。
  2. 避免边界信息丢失:保留输入图像的边界特征,使其参与卷积运算。
  3. 提升网络表达能力:更好地提取图像的全局和边界特征。

以上

相关推荐
冬天给予的预感1 小时前
DAY 54 Inception网络及其思考
网络·python·深度学习
董厂长5 小时前
langchain :记忆组件混淆概念澄清 & 创建Conversational ReAct后显示指定 记忆组件
人工智能·深度学习·langchain·llm
九年义务漏网鲨鱼8 小时前
【大模型学习 | MINIGPT-4原理】
人工智能·深度学习·学习·语言模型·多模态
jz_ddk8 小时前
[学习] C语言数学库函数背后的故事:`double erf(double x)`
c语言·开发语言·学习
爱莉希雅&&&9 小时前
技术面试题,HR面试题
开发语言·学习·面试
白杆杆红伞伞11 小时前
T01_神经网络
人工智能·深度学习·神经网络
Chef_Chen11 小时前
从0开始学习计算机视觉--Day08--卷积神经网络
学习·计算机视觉·cnn
weixin_4462608511 小时前
Isaac Lab:让机器人学习更简单的开源框架
学习·机器人
槑槑紫11 小时前
深度学习pytorch整体流程
人工智能·pytorch·深度学习
盼小辉丶12 小时前
TensorFlow深度学习实战——去噪自编码器详解与实现
人工智能·深度学习·tensorflow