论文阅读——MP-Former

MP-Former: Mask-Piloted Transformer for Image Segmentation

https://arxiv.org/abs/2303.07336

mask2former问题是:相邻层得到的掩码不连续,差别很大

denoising training非常有效地稳定训练时期之间的二分匹配。去噪训练的关键思想是将带噪声的GT坐标与可学习查询并行地送到Transformer解码器中,并训练模型去噪和恢复GT边框坐标。MPFormer去噪训练的思想从DN-DETR来,改进的mask2former模型。

MPformer送入class embeddings作为查询,给每层解码层送入GT masks作为attention masks,然后让模型重建类别和masks。

mask2former提出的mask attention可以使得训练时容易收敛。作者发现使得Vit类模型容易收敛的一些常识为给可学习的查询明确的意义,减少不确定性;二是给交叉注意力局部限制,更好的找到目标。因此作者认为给交叉注意力明确的导向可以提高分割性能。和DN-DETR不同,MPformer噪声可选择,可以没有。

作者把mask2former看做一个掩码不断精细化的过程,一层的预测作为下一层的attention masks。

MPformer是每层将GTmask作为attention masks,由于每层大小不一样,所以把GT使用双线性插值到不同分辨率。

加噪声的三种方式:

点噪声表现最好,所以用的点噪声。

Label-guided training:class embeddings会对应一个classification loss,class embeddings加噪声。

两种噪声,类别和掩码噪声的比例给的是0.2。

辅助函数:

结果

相关推荐
lynn-fish1 小时前
标讯 “加速度”:AI 如何重构电力招投标的决策与效率
人工智能·ai·电网·电力·招投标·标讯
TImCheng06091 小时前
落地实施方案:为销售团队引入AI工具的四阶段(选型-试点-培训-复盘)攻略
大数据·人工智能
进击monkey1 小时前
告别Confluence卡顿和权限迷宫:PandaWiki三个月实操体验
人工智能
仙女修炼史1 小时前
Making Convolutional Networks Shift-Invariant Again
人工智能·深度学习·计算机视觉
EasyGBS1 小时前
从“联网互通”到“安全可信”:EasyGBS支持GB35114国密协议,覆盖全场景安防合规升级
大数据·人工智能·安全·gb28181·gb35114
程序员Linc1 小时前
小智esp32小玩意2:了解面包板与小智最基本AI对话电路连接
人工智能
奔跑草-1 小时前
【AI日报】每日AI最新消息2026-02-24
人工智能
币小路1 小时前
BihuoPro 联合凯美国际大酒店:一次“数据平台+实体底盘”的深度耦合
大数据·人工智能
无忧智库1 小时前
某港口集团“十五五”智慧港口数字孪生与自动驾驶集卡多车编队系统建设方案深度解析(WORD)
人工智能·机器学习·自动驾驶