DINO:DETR with Improved DeNoising Anchor Boxes for End-to-End Object Detection

论文名称:DINO: DETR with Improved DeNoising Anchor Boxes for End-to-End Object Detection

发表时间:ICLR2023

作者及组织:Shilong Liu, Feng Li等,来自IDEA、港中文、清华。

前言

该篇论文在DN-DETR基础上,额外引进3个trick进一步增强DETR的性能:在12epoch下coco上达到了49.0map。本文将分别介绍这3个trick,

1、方法

上图为模型的总体结构图,改进部分为框中标红的部分,一个是用于第二阶段的query selection模块,另外一部分则是在去噪训练中额外引入了加噪的负样本来进行训练(DN-DETR中只有加噪的正样本)。

1.1.MixQuerySelection

如下图所示,作者比较了三种从Encoder中query select方式,其中蓝色框表示content query,白色框表示anchor。

图(a)没有用到Encoder的输出,content query是初始化为0,anchor即object query是可学习的;

图(b)是Deformable Detr中做法,从Encoder中选择topK个得分高的query并经过线性映射来得到动态可学习的anchor和content query;

图(c)是本文做法,考虑到模型的Encoder在初始阶段抽取出特征可能会使Decoder困惑,于是本文保持content query初始化为全0,而anchor则是从Encoder中动态挑出来的。

1.2.Contrastive DeNoising Training

在DN-DETR中是仅给gt增加了正样本的噪声来作为额外的gt。但模型没有判别负样本/困难样本的能力,为了区分gt附近的预测框,作者在训练过程中新增加了负样本gt。如下图所示, < λ 1 \lambda_1 λ1 的加噪gt为正样本,在[ λ 1 \lambda_1 λ1 , λ 2 \lambda_2 λ2]之间的作为加噪负样本。

1.3. Look Forward Twice

下图左边是每层DecoderLayer在预测box的梯度流向,发现层与层之间其实没有交互,是断开的;于是作者设计了右边的级联形式,使得当前层box预测能够看见前面层的预测信息。

2、实验

DINO的性能还是很高的,在coco上36epoch达到50.9。

50.9基本已经饱和了,于是作者用更大的backbone以及更大的数据集Object365进行试验,并在coco上微调。取得了惊人的63.1map。

消融实验看出,在增加了上述三个trick后,涨了1.4个点。emmm...

相关推荐
好奇龙猫5 小时前
人工智能学习-AI-MIT公开课-第三节:推理:目标树与基于规则的专家系统-笔记
人工智能·笔记·学习
正经人_x5 小时前
学习日记28:Run, Don’t Walk: Chasing Higher FLOPS for Faster Neural Networks
人工智能·深度学习·cnn
好奇龙猫5 小时前
【AI学习-comfyUI学习-第二十节-controlnet线稿+softedge线稿处理器工作流艺术线处理器工作流-各个部分学习】
人工智能·学习
陈橘又青5 小时前
vLLM-Ascend推理部署与性能调优深度实战指南:架构解析、环境搭建与核心配置
人工智能·后端·ai·架构·restful·数据·vllm
世优科技虚拟人5 小时前
AI数字人企业产品图谱解析:2D/3D数字人AI交互开发技术指南
人工智能·大模型·人机交互·数字人·智能交互
LiFileHub5 小时前
2025 AI驱动产业转型全景手册:从技术破局到价值重生(附8大转型案例)
人工智能
python机器学习ML5 小时前
论文复现-以动物图像分类为例进行多模型性能对比分析
人工智能·python·神经网络·机器学习·计算机视觉·scikit-learn·sklearn
YANQ6625 小时前
14.1 人脸的三维重构(PRNet算法)
人工智能·重构
风途知识百科5 小时前
并网/分布式光伏气象站
人工智能·分布式
诸葛务农5 小时前
神经网络信息编码技术:与人脑信息处理的差距及超越的替在优势和可能(下)
人工智能·神经网络