目标检测——FPN与DSSD算法解读

由于FPN和DSSD网络结构比较相似,且发布时间非常相近,所以放一起解读

按时间来算FPN是先于DSSD在arxiv上发布的,FPN第一版是2016年12月9日,DSSD第一版是2017年1月23日,前后相差一个月。

YOLO系列其他文章:

文章目录

  • 1、FPN
    • [1.1 算法概述](#1.1 算法概述)
    • [1.2 FPN细节](#1.2 FPN细节)
  • 2、DSSD
    • [2.1 算法概述](#2.1 算法概述)
    • [2.2 DSSD细节](#2.2 DSSD细节)
  • 3、FPN与DSSD对比

1、FPN

论文:Feature Pyramid Networks for Object Detection

作者:Tsung-Yi Lin, Piotr Dollár, Ross Girshick, Kaiming He, Bharath Hariharan, Serge Belongie

链接:https://arxiv.org/abs/1612.03144

1.1 算法概述

SSD利用不同层的特征图进行不同尺寸的目标预测,又快又好。这篇文章首先也采用了这种思路:在不同深度的特征层上预测不同尺寸的目标。但是SSD为了预测小目标,就得把比较低的层拿出来预测,这样的话就很难保证有很强的语义特征,所以作者就想着,为什么不把高层的特征再传下来,补充低层的语义,这样就可以获得高分辨率、强语义的特征,有利于小目标的检测。作者通过将FPN与Faster R-CNN结合起来,AR直接提升8个点。COCO-style方式计算的AP提升2.3个点,PASCAL-style计算的AP提升3.8个点。

1.2 FPN细节

直接引入论文中的图说明现如今检测算法利用特征图做检测的方式。

图(a)是通过多尺度变换图片,然后对得到一系列图片提取特征形成的特征金字塔;图(b)就是利用最后一层特征图做预测的方式;图©就是单纯利用多个层级的特征做预测,SSD算法就是采用这种方式;图(d)就是本文提出的FPN,它还有一个top-to-down对多个层级进行融合的过程,并且也是多个特征层多预测。

融合的方式如下,小特征图通过双线性插值完成上采样操作与之前的大特征图相加融合形成新的大特征图。


2、DSSD

论文:DSSD: Deconvolutional Single Shot Detector

作者:Cheng-Yang Fu, Wei Liu, Ananth Ranga, Ambrish Tyagi, Alexander C. Berg

链接:https://arxiv.org/abs/1701.06659

2.1 算法概述

DSSD基于SSD进行改进,将SSD的主干网络换成了提取特征能力更强的ResNet101,也像FPN一样,对SSD的多个特征进行了融合。只是DSSD在从小分辨率特征图变换到大特征图用的操作是反卷积。通过这两个改进,DSSD513在VOC2007测试集上实现了81.5%mAP,VOC2012测试集达到了80.0%mAP,在COCO测试集上是33.2%mAP。

2.2 DSSD细节

直接看DSSD和SSD对比的网络结构图

大体上看特征融合的方式和FPN非常像,都是一个top-to-down的过程,最后多个特征图输出预测结果。但作者设计了两个小模块,一个是Prediction Module,一个是Deconvolution Module。

  • Prediction Module

    作者说加这个模块是因为MS-CNN指出提升每个子任务网络的表现可以提高准确性,所以作者为每个预测层添加一个残差块,这个有一点效果吧。通过消融实验也证明©的效果最好。作者在最后提出,加PM是为了防止梯度直接流入Res-Net主干。

  • Deconvolution Module

    可以看到这个Deconvolution Module不是单纯的将小特征图经过一个反卷积操作然后和大特征图相加融合(FPN是单纯上采样然后相加融合);对于小特征图经过一个反卷积操作后,又经过一个3x3卷积操作,同样的对于大特征图还经过3x3两个卷积操作,然后才是两个特征图做元素相乘操作的融合得到新的大特征图。


3、FPN与DSSD对比

相同点:

均是改进检测算法框架的Neck特征融合增强部分,对检测小目标的性能均有比较大的提升。

不同点:

FPN是基于Faster R-CNN做的改进实验,当然FPN也是通用的,它只是单纯的将小特征图上采样扩大分辨率然后与大特征图相加融合,而DSSD是基于SSD做的改进实验,里面的Deconvolution Module也是做特征融合,也可以通用到其他主干网络,但它的融合方式比FPN更复杂一点,融合之前进行了两个卷积操作,而且是元素相乘的融合方式。其次,DSSD还改进了SSD算法的检测头。

相关推荐
大耳朵爱学习2 分钟前
大模型预训练的降本增效之路——从信息密度出发
人工智能·深度学习·机器学习·自然语言处理·大模型·llm·大语言模型
loongloongz1 小时前
联合条件概率 以及在语言模型中的应用
人工智能·语言模型·自然语言处理·概率论
lijfrank1 小时前
情感计算领域期刊与会议
人工智能·人机交互
sp_fyf_20241 小时前
计算机人工智能前沿进展-大语言模型方向-2024-09-18
人工智能·语言模型·自然语言处理
sp_fyf_20241 小时前
计算机人工智能前沿进展-大语言模型方向-2024-09-14
人工智能·语言模型·自然语言处理
ybdesire1 小时前
nanoGPT用红楼梦数据从头训练babyGPT-12.32M实现任意问答
人工智能·深度学习·语言模型
AI极客菌1 小时前
Stable Diffusion绘画 | 生成高清多细节图片的各个要素
人工智能·ai·ai作画·stable diffusion·aigc·midjourney·人工智能作画
FOUR_A1 小时前
【机器学习导引】ch2-模型评估与选择
人工智能·机器学习
程序猿进阶2 小时前
如何在 Visual Studio Code 中反编译具有正确行号的 Java 类?
java·ide·vscode·算法·面试·职场和发展·架构
Eloudy2 小时前
一个编写最快,运行很慢的 cuda gemm kernel, 占位 kernel
算法