论文阅读——MP-Former

MP-Former: Mask-Piloted Transformer for Image Segmentation

https://arxiv.org/abs/2303.07336

mask2former问题是:相邻层得到的掩码不连续,差别很大

denoising training非常有效地稳定训练时期之间的二分匹配。去噪训练的关键思想是将带噪声的GT坐标与可学习查询并行地送到Transformer解码器中,并训练模型去噪和恢复GT边框坐标。MPFormer去噪训练的思想从DN-DETR来,改进的mask2former模型。

MPformer送入class embeddings作为查询,给每层解码层送入GT masks作为attention masks,然后让模型重建类别和masks。

mask2former提出的mask attention可以使得训练时容易收敛。作者发现使得Vit类模型容易收敛的一些常识为给可学习的查询明确的意义,减少不确定性;二是给交叉注意力局部限制,更好的找到目标。因此作者认为给交叉注意力明确的导向可以提高分割性能。和DN-DETR不同,MPformer噪声可选择,可以没有。

作者把mask2former看做一个掩码不断精细化的过程,一层的预测作为下一层的attention masks。

MPformer是每层将GTmask作为attention masks,由于每层大小不一样,所以把GT使用双线性插值到不同分辨率。

加噪声的三种方式:

点噪声表现最好,所以用的点噪声。

Label-guided training:class embeddings会对应一个classification loss,class embeddings加噪声。

两种噪声,类别和掩码噪声的比例给的是0.2。

辅助函数:

结果

相关推荐
FrontAI几秒前
深入浅出 LangGraph —— 第6章:工具调用与ToolNode
人工智能·langchain·ai agent·langgraph
前端DOM哥几秒前
8 年前的老代码 + 20 刀 AI token = 我的第一款独立产品
前端·人工智能·架构
蔡大锅10 分钟前
🔥 在线学习算力平台推荐-Hyper.AI
人工智能·算法
老唐77713 分钟前
常见经典十大大机器学习算法分类与总结
人工智能·深度学习·神经网络·学习·算法·机器学习·ai
knight_9___17 分钟前
LLM工具调用面试篇2
人工智能·python·深度学习·机器学习·agent·rag
xlecho27 分钟前
从单一语言到全域全栈,AI凭全能实力,淘汰旧时代语言工程师
人工智能·后端·开源
lcj092466640 分钟前
数据中心运维升级|磁控U位硬件联动DCIM,破解U位管控难题
运维·人工智能·经验分享·信息可视化
ECT-OS-JiuHuaShan1 小时前
渡劫代谢,好事多磨
数据库·人工智能·科技·学习·算法·生活
阿瑞说项目管理1 小时前
有监督 vs 全自主:两种 Agent 范式,你选对了吗?
人工智能·agent·智能体·企业级ai
乔江seven1 小时前
【李沐 | 动手学深度学习】18 深度学习硬件:TPU和其他
人工智能·深度学习·深度学习硬件