深度学习进阶(九)池化技术的初步改进:RoI Pooling

上一篇里,我们已经完整介绍了 Swin Transformer 的模型逻辑,知道了:Swin Transformer 的核心,并不是简单地"模仿 CNN",而是在保留归纳偏置的同时,让建模方式更加灵活。

换句话说,它做的事情是:

在"约束"与"自由"之间找到一个平衡点。

而在上一篇的末尾,我们也提到:当 Swin 在学习"约束"的同时,CNN 也在学习"自由"。

实际上,CNN 体系内部早就已经出现了这种"让结构变得更灵活 "的趋势并发展出了繁多的落地技术。

因此,在正式展开" CNN 的 Transformer 化 " 前,为了不让内容过于割裂,还需要展开一些前置内容,引入一些 CNN 内的一些相关改进来简单过渡

本篇的内容关于池化技术的初步改进:RoI Pooling

1. 基本池化 Pooling

先回顾一下最基本的池化操作,以最常见的最大池化(Max Pooling)为例:

\[y(i,j) = \max_{(m,n)\in \mathcal{R}} x(i+m, j+n) \]

这里的 \(\mathcal{R}\) 表示池化窗口,我们用最大池化来筛选"最强响应"。

此外,还可以使用平均池化来保留"整体信息":

\[y(i,j) = \frac{1}{|\mathcal{R}|} \sum_{(m,n)\in \mathcal{R}} x(i+m, j+n) \]

不再展开过多细节,这里附上我们之前介绍池化的内容:池化操作与卷积中的反向传播

总的来说,Pooling 的本质是通过下采样来压缩信息,从而减少计算量。

同时,由于其在局部窗口内进行聚合,它实际上引入了一种重要的归纳偏置:

局部不变性先验:在小范围内的变化不会显著影响输出。

也正因为这一点,在不显著改变语义的前提下,Pooling 还可以间接扩大后续网络的感受野。

当然,最基础的 Pooling 也存在明显的局限:

采样位置是完全固定的。

换句话说,它的行为是"刚性的":窗口位置固定、采样方式固定、不随输入内容发生变化。

总结一下就是不够灵活 ,这在分类任务中通常问题不大,但在目标检测 等任务中就会变得非常明显。

比如目标刚好落在池化窗口边界或发生轻微形变或偏移,此时的 Pooling 可能会丢失部分关键信息甚至直接削弱目标响应。

问题的关键在于:

Pooling 仍然是在"整张特征图上使用统一规则",但有时我们真正关心的是"某一个局部目标"。

因此,Pooling 的第一步改进就出现在检测任务中,我们继续。

2. Region of Interest Pooling

Region of Interest Pooling 简称 RoI Pooling ,它起源于 15 年的论文:Fast R-CNN

Fast R-CNN 是一个目标检测模型,它首次系统性提出了 RoI Pooling,用于将任意大小的候选框映射为固定尺寸特征。

同样,如果你对检测任务本身的相关概念有些遗忘了,可以在这里回顾:目标定位与特征点检测

首先要说明的是,Fast R-CNN 并不像现在主流的 YOLO 一样是端到端模型,它的目标检测逻辑是先使用物理方法得到候选框,再把候选框映射输入网络进行分类 ,是一个两阶段模型。

我们具体展开其逻辑如下:

2.1 候选框映射

如图所示,第一步就是把物理方法生成的候选框在原图中的相对位置映射到原图卷积后得到的特征图上。

这个映射本质上依赖于一个非常关键的参数: 空间缩放比例(spatial scale)

如果原图尺寸为 \(H \times W\),特征图尺寸为 \(H' \times W'\),那么:

\[\text{scale}_x = \frac{W'}{W}, \quad \text{scale}_y = \frac{H'}{H} \]

假设原图上的 RoI 为:

\[(x_1, y_1, x_2, y_2) \]

\((x_1, y_1)\)是左上角坐标 ,\((x_2, y_2)\)是右下角坐标

那么映射后就是:

\[x_1' = x_1 \cdot \text{scale}_x,\quad y_1' = y_1 \cdot \text{scale}_y \]

\[x_2' = x_2 \cdot \text{scale}_x,\quad y_2' = y_2 \cdot \text{scale}_y \]

我们再看看图里的实例:

  • 原图:\(128 \times 128\)
  • feature map:\(6 \times 6\)
    则:

\[\text{scale} = \frac{6}{128} \approx 0.046875 \]

假设原图中有一个候选框:

\[(32,\ 32,\ 96,\ 96) \]

映射到 feature map:

坐标 原图值 计算公式 feature map 值
\(x_1\) 32 \(32 \times \frac{6}{128}\) \(1.5\)
\(y_1\) 32 \(32 \times \frac{6}{128}\) \(1.5\)
\(x_2\) 96 \(96 \times \frac{6}{128}\) \(4.5\)
\(y_2\) 96 \(96 \times \frac{6}{128}\) \(4.5\)

所以得到:

\[(1.5,\ 1.5,\ 4.5,\ 4.5) \]

这里就有一个问题:要不要取整?

RoI Pooling(Fast R-CNN 原始做法) 中,会进行直接取整,具体如下:

  • 左上角:向下取整 \(\lfloor x_1' \rfloor\)。
  • 右下角:向上取整 \(\lceil x_2' \rceil\)。

逻辑还是比较清晰的:扩大一点范围,保证不漏。 但同样,这也带来了误差。

由此得到最终结果:

\[(1.5,1.5,4.5,4.5) \rightarrow (1,1,5,5) \]

这就是 RoI Pooling 的第一步。

2.2 划分子区域

现在,我们得到了将候选框映射到特征图中的区域,下一步是把该区域划分为 \(k \times k\) 个子区域。

要说明的是,这里并不是把区域切成 \(k \times k\) 个正方形,而是按宽和高分别等分,形成网格

对最终划分好的每个子网格,我们就叫它一个 bin

展开来说,设当前 RoI 为:

\[(x_1', y_1', x_2', y_2') \]

则:

\[w = x_2' - x_1', \quad h = y_2' - y_1' \]

划分为 \(k \times k\) 后,一个 bin 的尺寸就是:

\[bin_{width} = \frac{w}{k},\quad bin_{height} = \frac{h}{k} \]

继续上一节的例子:

\[(1,\ 1,\ 5,\ 5) \]

所以:

\[w = 4,\quad h = 4 \]

设 \(k = 2\) 则:

\[bin_{width} = 2,\quad bin_{height} = 2 \]

但实际上,这只是一种最理想的请况,新的问题是:

候选框不是正方形怎么办?最终 bin 的尺寸不是整数怎么办?

第一个问题只要跳出思维定视就好,答案是:一样切

关键在于第二个问题:

如图所示,在真实情况下:

\[\frac{w}{k},\ \frac{h}{k} \]

很可能不是整数。

例如图中的:

\[h = 5,\ k = 2 \Rightarrow bin_{height} = 2.5 \]

而原始 RoI Pooling 给出的答案是和上部分是一样的:

每个 bin 的边界都会再次取整。

其实现方式是,对于每一个方向

  • 起点:向下取整 \(\lfloor \cdot \rfloor\) 。
  • 终点:向上取整 \(\lceil \cdot \rceil\) 。

例如两 bin 的高度方向

  • bin1:

\[[0,\ 2.5] \rightarrow [0,\ 3] \]

  • bin2:

\[[2.5,\ 5.0] \rightarrow [2,\ 5] \]

这里的关键点是:RoI Pooling 的 bin 划分是在连续空间完成的,而取整是在每个 bin 内独立进行的。

但这种取整策略也会带来相应的问题:

因此,这种取整策略便让 RoI Pooling 的逻辑中出现了局限。

我们先继续整体逻辑,再专门来阐述这个问题。

2.3 区域池化

最后一步就较为简单了:在每个划分好的 bin 内进行最大或平均池化得到最终结果

这便是 RoI Pooling 的完整逻辑和其在检测任务中发挥的作用:

任意大小的候选框都可以通过 bin 的划分映射为固定尺寸特征,从而统一维度用于判定。

到这里,你可能会有这样一个问题:

这不就是在图像里挑了一块进行普通池化吗?并没有改变池化的逻辑吧?归根结底只是池化在检测任务中的特化,在哪里体现出"更灵活"了?

我们就这个问题来总述一下这段逻辑:

3. RoI Pooling 的意义和局限

3.1 什么是"更灵活"的池化?

如果从计算流程上看,RoI Pooling 似乎只是做了一件很简单的事情:

从 feature map 中截取一个区域,然后做一次固定尺寸的池化。

但它真正的意义并不在"操作复杂度",而在于:

它第一次在 CNN 中引入了"基于目标的特征对齐机制"。

展开来说,在传统 Pooling 中,我们默认:池化窗口是预先固定的,与输入内容无关。

这时的池化本质就是一个"空间无关的压缩操作"。

而 RoI Pooling 做了一件关键变化:

池化窗口不再固定,而是由"候选目标(RoI)"决定。

从这个角度看,"更灵活"体现在:Pooling 的位置由输入决定、 Pooling 的范围随目标变化 。

因此,它的"灵活性"本质是:从"固定操作"变成了"针对目标的操作"。

当然,这只是针对池化的初步改进,就现在的眼光来看,它的逻辑并不复杂,在所有 CV 任务中的泛用性也并不强。

但这是一个"起点 ",我们在其后续的改进中就能越发体会到"灵活"二字。

以此,我们来展开 RoI Pooling 的局限问题。

3.2 RoI Pooling 的对齐问题

RoI Pooling 的逻辑中存在一个非常根本的问题:它并没有做到完善的几何对齐。

首先,RoI Pooling 至少经历了两次对齐问题:RoI 映射时的取整和 bin 划分时的取整。

如图所示,原本连续的目标区域,在进入特征图后被"折断"了两次。最终采样的位置并不一定与真实 RoI 对齐。

而这种偏差会让最终池化得到的是:一个"近似区域的统计值",而不是"精确区域的响应"

用专业名词来说,这叫:

量化误差,即连续值被映射到离散值时产生的误差。

这种误差在检测任务中会被放大,最终的效果就是:

模型知道"这里有东西",但不知道"边界到底在哪里"。因为我们没有提取到精准的边界。

此外,pooling 抹平空间细节,对小目标/边界的检测也并不友好。

针对这些问题,自然就会有相应的改进,我们下一篇再详细展开。

相关推荐
Mr数据杨3 小时前
多标签文本分类实战案例从 Kaggle TechNist 看小样本建模与落地
机器学习·数据分析·kaggle
Agent产品评测局3 小时前
企业流程异常处理自动化落地,预警处置全流程实现方案:2026企业“数字免疫系统”构建指南
运维·人工智能·ai·chatgpt·自动化
gjhave3 小时前
强化学习论文(A3C)
人工智能·机器学习
Freak嵌入式3 小时前
MicroPython对接大模型:uopenai + 火山方舟实现文字聊天和图片理解
ide·驱动开发·ai·llm·嵌入式·micropython·upypi
格林威3 小时前
AI视觉检测:Jetson Orin vs RTX A2000 推理速度对比
人工智能·数码相机·机器学习·计算机视觉·视觉检测·机器视觉·工业相机
gao_tjie4 小时前
手机号码三要素验证 API 集成指南
ai
科研实践课堂(小绿书)4 小时前
基于AI智能算法的装备结构可靠性分析与优化设计技术
人工智能·机器学习
Mr数据杨4 小时前
纽约311工单响应时长预测实战 从结构化回归到城市服务效率分析
机器学习·数据分析·kaggle
小陈的进阶之路4 小时前
TestHub自动化测试平台部署使用
测试工具·ai