论文阅读——MP-Former

MP-Former: Mask-Piloted Transformer for Image Segmentation

https://arxiv.org/abs/2303.07336

mask2former问题是:相邻层得到的掩码不连续,差别很大

denoising training非常有效地稳定训练时期之间的二分匹配。去噪训练的关键思想是将带噪声的GT坐标与可学习查询并行地送到Transformer解码器中,并训练模型去噪和恢复GT边框坐标。MPFormer去噪训练的思想从DN-DETR来,改进的mask2former模型。

MPformer送入class embeddings作为查询,给每层解码层送入GT masks作为attention masks,然后让模型重建类别和masks。

mask2former提出的mask attention可以使得训练时容易收敛。作者发现使得Vit类模型容易收敛的一些常识为给可学习的查询明确的意义,减少不确定性;二是给交叉注意力局部限制,更好的找到目标。因此作者认为给交叉注意力明确的导向可以提高分割性能。和DN-DETR不同,MPformer噪声可选择,可以没有。

作者把mask2former看做一个掩码不断精细化的过程,一层的预测作为下一层的attention masks。

MPformer是每层将GTmask作为attention masks,由于每层大小不一样,所以把GT使用双线性插值到不同分辨率。

加噪声的三种方式:

点噪声表现最好,所以用的点噪声。

Label-guided training:class embeddings会对应一个classification loss,class embeddings加噪声。

两种噪声,类别和掩码噪声的比例给的是0.2。

辅助函数:

结果

相关推荐
技术爬爬虾4 分钟前
超越Everything!100%离线且免费的AI文件助手HyperLink
人工智能·everything
程序员Linc4 分钟前
OpenCV-python小玩意17 YOLO目标检测之环境安装
人工智能·opencv·yolo·目标检测
冴羽8 分钟前
Nano Banana Pro 零基础快速上手
前端·人工智能·aigc
新华经济9 分钟前
合同管理系统2025深度测评:甄零科技居榜首
大数据·人工智能·科技
zhaodiandiandian10 分钟前
工业大模型:从辅助工具到产业变革核心引擎
人工智能
像风没有归宿a12 分钟前
AI绘画与音乐:生成式艺术是创作还是抄袭?
人工智能·深度学习·计算机视觉
碧海银沙音频科技研究院26 分钟前
基于物奇wq7036与恒玄bes2800智能眼镜设计
arm开发·人工智能·深度学习·算法·分类
黑客思维者30 分钟前
招商银行信用卡AI客服系统:从0到1实战笔记
大数据·人工智能·笔记
yiersansiwu123d32 分钟前
AI 赋能就业:新职业崛起与传统岗位的价值重生
人工智能·百度
像风没有归宿a35 分钟前
2024年全球网络安全威胁报告:AI攻击与勒索软件新变种
人工智能·安全·web安全