深度学习|表示学习|卷积神经网络|Padding(填充)的用处是什么?|12

如是我闻: Padding(填充)是卷积操作中的一个重要概念,它的主要作用是在输入图像的边界上添加像素(通常填充 0) 。Padding 的目的是解决卷积过程中 边界像素"丢失" 的问题,同时影响输出特征图的大小。


1. 为什么需要 Padding?

(1) 避免边界信息丢失
  • 卷积核在输入图像上滑动时,通常只能覆盖图像的中心区域,边界区域由于缺少足够的覆盖范围,可能得不到充分处理。
  • 如果不使用 Padding,卷积操作会缩小输入图像的大小 ,导致边界信息逐层丢失。举例:
    • 假设输入图像大小是 n × n n \times n n×n,卷积核大小是 k × k k \times k k×k,步长 s = 1 s = 1 s=1,没有填充( p = 0 p = 0 p=0)时:
      输出大小 = n − k + 1 \text{输出大小} = n - k + 1 输出大小=n−k+1
      可以看到每次卷积后图像尺寸都会变小。例如:
      • n = 5 n = 5 n=5, k = 3 k = 3 k=3 时,输出大小变为 3 × 3 3 \times 3 3×3。
      • 再叠加一层卷积,输出会变为 1 × 1 1 \times 1 1×1。
  • 这种逐层缩小的效果会让深度网络中较早的边界信息消失
(2) 控制输出特征图的大小
  • 如果希望输入和输出的大小一致(即保持边界完整),可以通过 Padding 在输入图像边界补充像素。
  • 这种方式在特征提取中非常常用,尤其在卷积神经网络中。

2. Padding 的常见类型

Padding 的方式有多种,最常见的是以下几种:

(1) Zero Padding
  • 在输入图像的边界添加值为 0 的像素。
  • 优点:
    • 不会引入新的特征信息,只用于扩展边界。
  • 应用场景:
    • 最常见的填充方式,尤其在图像处理中,Zero Padding 几乎是默认选项。
(2) Reflect Padding
  • 边界的像素值由图像内容反射生成。例如:
    原图 = [ 1 , 2 , 3 ] \text{原图} = [1, 2, 3] 原图=[1,2,3]
    Padding 后
    反射填充 = [ 2 , 1 , 1 , 2 , 3 , 3 ] \text{反射填充} = [2, 1, 1, 2, 3, 3] 反射填充=[2,1,1,2,3,3]
  • 优点:
    • 避免引入"全 0"像素的影响,保持边界像素的自然性。
(3) Replicate Padding
  • 边界像素的值直接复制。例如:
    原图 = [ 1 , 2 , 3 ] \text{原图} = [1, 2, 3] 原图=[1,2,3]
    Padding 后
    复制填充 = [ 1 , 1 , 1 , 2 , 3 , 3 ] \text{复制填充} = [1, 1, 1, 2, 3, 3] 复制填充=[1,1,1,2,3,3]
  • 优点:
    • 保持边界像素一致性,适用于特定边界敏感的场景。

3. Padding 的作用总结

(1) 控制输出大小
  • Padding 会影响输出特征图的大小。如果没有填充( p = 0 p = 0 p=0),每次卷积操作都会让输入图像缩小。
  • 如果希望输入输出大小一致,可以选择适当的 Padding 值:
    p = k − 1 2 p = \frac{k - 1}{2} p=2k−1
    其中 k k k 是卷积核的大小。例如:
    • k = 3 k = 3 k=3, p = 1 p = 1 p=1,输出大小保持不变。
(2) 保留边界信息
  • Padding 可以让卷积核覆盖到输入图像的边界像素,避免边界信息被忽略。没有 Padding 的情况下,边界像素对特征图几乎没有贡献。
(3) 增强特征提取的稳定性
  • 在深层卷积网络中,随着层数加深,输入尺寸会逐渐减小。如果没有 Padding,卷积核将只能提取图像中心的特征,边界特征容易被丢失。
  • 通过 Padding,可以保留更多全局信息,使网络提取的特征更全面。

总的来说

Padding 的主要作用是:

  1. 控制输出大小:让卷积操作后,输入和输出的尺寸可以一致。
  2. 避免边界信息丢失:保留输入图像的边界特征,使其参与卷积运算。
  3. 提升网络表达能力:更好地提取图像的全局和边界特征。

以上

相关推荐
Gary Studio43 分钟前
rk芯片驱动编写
linux·学习
mango_mangojuice44 分钟前
Linux学习笔记(make/Makefile)1.23
java·linux·前端·笔记·学习
lingggggaaaa1 小时前
安全工具篇&动态绕过&DumpLsass凭据&Certutil下载&变异替换&打乱源头特征
学习·安全·web安全·免杀对抗
PP东1 小时前
Flowable学习(二)——Flowable概念学习
java·后端·学习·flowable
学电子她就能回来吗1 小时前
深度学习速成:损失函数与反向传播
人工智能·深度学习·学习·计算机视觉·github
爱吃泡芙的小白白1 小时前
突破传统:CNN卷积层(普通/空洞)核心技术演进与实战指南
人工智能·神经网络·cnn·卷积层·空洞卷积·普通卷积
Coder_Boy_2 小时前
TensorFlow小白科普
人工智能·深度学习·tensorflow·neo4j
大模型玩家七七2 小时前
梯度累积真的省显存吗?它换走的是什么成本
java·javascript·数据库·人工智能·深度学习
kkzhang2 小时前
Concept Bottleneck Models-概念瓶颈模型用于可解释决策:进展、分类体系 与未来方向综述
深度学习
AI视觉网奇3 小时前
ue 角色驱动衣服 绑定衣服
笔记·学习·ue5