OneFormer: One Transformer to Rule Universal Image Segmentation论文笔记

论文 https://arxiv.org/pdf/2211.06220.pdf
Code https://github.com/SHI-Labs/OneFormer

文章目录

  • [1. Motivation](#1. Motivation)
  • [2. 方法](#2. 方法)
    • [2.1 与Mask2Former的相同之处](#2.1 与Mask2Former的相同之处)
    • [2.2 OneFormer创新之处](#2.2 OneFormer创新之处)
    • [2.3 Task Conditioned Joint Training](#2.3 Task Conditioned Joint Training)
    • [2.4 Query Representations](#2.4 Query Representations)
    • [2.4 Task Guided Contrastive Queries](#2.4 Task Guided Contrastive Queries)
  • [3. 实验](#3. 实验)
    • [3.1 BenchMarks](#3.1 BenchMarks)
    • [3.2 Ablation Studies](#3.2 Ablation Studies)
    • [3.3 超参数实验](#3.3 超参数实验)

1. Motivation

  • 通用图像分割并不是本文所提出的一个概念。远有UperNet,近有Mask2Former、K-Net,这些网络也都是作为一种通用分割架构被提出。
  • 但是,本文认为,这些网络对于语义分割、实例分割、全景分割三种虽然可以做到模型结构的统一,但是还是需要特定任务单独训练得到各自专用的模型,作者将这一类模型称之为semi-universal
  • 本文提出的OneFormer不仅模型结构统一,同时,语义分割、实例分割、全景分割只需要在全景分割数据集训练一遍,据可以得到一个三种任务通用的模型用于推理,达到真正意义上的universal

2. 方法

2.1 与Mask2Former的相同之处

先不看(b)模块中与文本相关的内容,OneFormer的其余部分模型结构与Mask2Former基本一致:

  1. Backbone:使用ImageNet预训练的网络编码多尺度特征;
  2. Pixel Decoder:使用Multi-Scale Deformable Transformer (MSDeformAttn) 建模多尺度上下文特征;
  3. Transformer Decoder:使用{1/8、1/16、1/32}三个分辨率的特征图对object query进行更新,李勇的主要结构是cross attention、self attention、FFN;
  4. 利用更新后的object query预测(K+1)个类别;
  5. 利用更新后的object query和1/4特征图点积给每个query生成对应的binary mask;

2.2 OneFormer创新之处

相比于Mask2Former,OneFormer的创新点或者说不同之处有以下几点:

  1. Task Conditioned Joint Training:为了将语义分割、实例分割、全景分割三个任务在一个统一的架构中进行统一训练,需要引入特定任务的任务提示词。
  2. Query Representations:除了Mask2Former这一类方法中的用到的object query,为方便理解称之为visual query,本文提出了text query,语义分割、实例分割、全景分割都有各自对应的不同的text query。
  3. Task Guided Contrastive Queries:计算visual query和text query之间的对比损失,因为不同任务的text query是不同的,这样做就可以使得不同任务训练得到的visual query能够具有区分度;

2.3 Task Conditioned Joint Training

  • 首先,对于每种任务,使用the task is { }来构造任务提示词 I t a s k I_{task} Itask ,该提示词随后会经过Tokenize和Embedding以及MLP,得到task-token Q t a s k Q_{task} Qtask 。
  • 此外,如下图所示,对于每种任务,统计其中出现的各类thing或者stuff的数目,采用a photo with a {CLS}这样的短语构造 T l i s t T_{list} Tlist 序列,。为了使得batch内部的文本长度对齐,需要使用a/an {task} photo这样的短语进行padding,代表no-object,padding后的结果是 T p a d T_{pad} Tpad。

2.4 Query Representations

Query Representations部分主要介绍text query Q t e x t Q_{text} Qtext 和object query Q Q Q是如何构造和初始化的:

  • Q t e x t Q_{text} Qtext:将 T p a d T_{pad} Tpad 进行 Tokenize 以及Embedding,随后采用6层transformer encoder得到 N t e x t N_{text} Ntext个Embedding。然后,将 N c t x N_{ctx} Nctx个可学习的Embedding和 N t e x t N_{text} Ntext个embedding连接起来,最终得到 N N N 个text query Q t e x t Q_{text} Qtext。

  • Q Q Q:首先,将 Q t a s k Q_{task} Qtask 复制 N − 1 N-1 N−1 次,的到初始化后的object query Q ′ Q' Q′,然后,使用1/4特征图对 Q ′ Q' Q′ 进行更新(使用2层transformer),最后,将 Q t a s k Q_{task} Qtask 和 Q ′ Q' Q′ 连接得到 N N N 个object query Q Q Q。

2.4 Task Guided Contrastive Queries

将语义分割、实例分割、全景分割统一在同一个模型中的关键挑战在于,怎么为每个任务生成任务特定的object query,那么,该如何让每种任务的object query之间彼此区分呢?

本文的解决方案是,计算text query Q t e x t Q_{text} Qtext 和object query Q Q Q 之间的对比损失,因为 Q t e x t Q_{text} Qtext是从特定任务的GT中通过统计thing和stuff的数量得到的,所以不同任务的 Q t e x t Q_{text} Qtext之间是彼此区分的,那么只需要将 Q Q Q 和 Q t e x t Q_{text} Qtext 对齐。

所采用的对比损失如下:


B B B 是一个batch内部的object-text pairs.

3. 实验

3.1 BenchMarks

3.2 Ablation Studies

3.3 超参数实验

相关推荐
牧歌悠悠2 小时前
【深度学习】Unet的基础介绍
人工智能·深度学习·u-net
Archie_IT3 小时前
DeepSeek R1/V3满血版——在线体验与API调用
人工智能·深度学习·ai·自然语言处理
大数据追光猿3 小时前
Python应用算法之贪心算法理解和实践
大数据·开发语言·人工智能·python·深度学习·算法·贪心算法
Watermelo6176 小时前
从DeepSeek大爆发看AI革命困局:大模型如何突破算力囚笼与信任危机?
人工智能·深度学习·神经网络·机器学习·ai·语言模型·自然语言处理
Donvink6 小时前
【DeepSeek-R1背后的技术】系列九:MLA(Multi-Head Latent Attention,多头潜在注意力)
人工智能·深度学习·语言模型·transformer
计算机软件程序设计6 小时前
深度学习在图像识别中的应用-以花卉分类系统为例
人工智能·深度学习·分类
xiao5kou4chang6kai48 小时前
遥感影像目标检测:从CNN(Faster-RCNN)到Transformer(DETR)
目标检测·cnn·transformer·遥感影像
終不似少年遊*9 小时前
词向量与词嵌入
人工智能·深度学习·nlp·机器翻译·词嵌入
夏莉莉iy12 小时前
[MDM 2024]Spatial-Temporal Large Language Model for Traffic Prediction
人工智能·笔记·深度学习·机器学习·语言模型·自然语言处理·transformer
pchmi12 小时前
CNN常用卷积核
深度学习·神经网络·机器学习·cnn·c#