论文阅读——MP-Former

MP-Former: Mask-Piloted Transformer for Image Segmentation

https://arxiv.org/abs/2303.07336

mask2former问题是:相邻层得到的掩码不连续,差别很大

denoising training非常有效地稳定训练时期之间的二分匹配。去噪训练的关键思想是将带噪声的GT坐标与可学习查询并行地送到Transformer解码器中,并训练模型去噪和恢复GT边框坐标。MPFormer去噪训练的思想从DN-DETR来,改进的mask2former模型。

MPformer送入class embeddings作为查询,给每层解码层送入GT masks作为attention masks,然后让模型重建类别和masks。

mask2former提出的mask attention可以使得训练时容易收敛。作者发现使得Vit类模型容易收敛的一些常识为给可学习的查询明确的意义,减少不确定性;二是给交叉注意力局部限制,更好的找到目标。因此作者认为给交叉注意力明确的导向可以提高分割性能。和DN-DETR不同,MPformer噪声可选择,可以没有。

作者把mask2former看做一个掩码不断精细化的过程,一层的预测作为下一层的attention masks。

MPformer是每层将GTmask作为attention masks,由于每层大小不一样,所以把GT使用双线性插值到不同分辨率。

加噪声的三种方式:

点噪声表现最好,所以用的点噪声。

Label-guided training:class embeddings会对应一个classification loss,class embeddings加噪声。

两种噪声,类别和掩码噪声的比例给的是0.2。

辅助函数:

结果

相关推荐
光影少年1 分钟前
AI前端开发需要会哪些及未来发展?
前端·人工智能·前端框架
hqyjzsb5 分钟前
2026年AI证书选择攻略:当“平台绑定”与“能力通用”冲突,如何破局?
大数据·c语言·人工智能·信息可视化·职场和发展·excel·学习方法
独自归家的兔6 分钟前
基于 cosyvoice-v3-plus 的简单语音合成
人工智能·后端·语音复刻
民乐团扒谱机6 分钟前
【微实验】Python——量子增强时频传递的精度量化
人工智能·python·aigc·量子力学·时空·参数敏感性·光量子
G***技8 分钟前
杰和IB3-771:以RK3588赋能机场巡检机器人
人工智能·物联网
xinyaokeji28 分钟前
认准高精度:基恩士 VL 扫描仪为三维测量优选之选
大数据·人工智能
mubei-12328 分钟前
万字RAG综述:大语言模型的检索增强生成
人工智能·llm·rag·检索增强生成
Java中文社群33 分钟前
国内直连GPT、Claude和Gemini?N8N这次更新真的绝了!
人工智能·后端
小真zzz37 分钟前
Nano Banana Pro 深度解析与 AI PPT 工具全面评测报告
人工智能·ai·powerpoint·ppt·chatppt·banana pro