论文阅读——MP-Former

MP-Former: Mask-Piloted Transformer for Image Segmentation

https://arxiv.org/abs/2303.07336

mask2former问题是:相邻层得到的掩码不连续,差别很大

denoising training非常有效地稳定训练时期之间的二分匹配。去噪训练的关键思想是将带噪声的GT坐标与可学习查询并行地送到Transformer解码器中,并训练模型去噪和恢复GT边框坐标。MPFormer去噪训练的思想从DN-DETR来,改进的mask2former模型。

MPformer送入class embeddings作为查询,给每层解码层送入GT masks作为attention masks,然后让模型重建类别和masks。

mask2former提出的mask attention可以使得训练时容易收敛。作者发现使得Vit类模型容易收敛的一些常识为给可学习的查询明确的意义,减少不确定性;二是给交叉注意力局部限制,更好的找到目标。因此作者认为给交叉注意力明确的导向可以提高分割性能。和DN-DETR不同,MPformer噪声可选择,可以没有。

作者把mask2former看做一个掩码不断精细化的过程,一层的预测作为下一层的attention masks。

MPformer是每层将GTmask作为attention masks,由于每层大小不一样,所以把GT使用双线性插值到不同分辨率。

加噪声的三种方式:

点噪声表现最好,所以用的点噪声。

Label-guided training:class embeddings会对应一个classification loss,class embeddings加噪声。

两种噪声,类别和掩码噪声的比例给的是0.2。

辅助函数:

结果

相关推荐
光的方向_12 分钟前
ChatGPT提示工程入门 Prompt 03-迭代式提示词开发
人工智能·chatgpt·prompt·aigc
盼小辉丶17 分钟前
PyTorch实战(29)——使用TorchServe部署PyTorch模型
人工智能·pytorch·深度学习·模型部署
郝学胜-神的一滴18 分钟前
在Vibe Coding时代,学习设计模式与软件架构
人工智能·学习·设计模式·架构·软件工程
AI英德西牛仔20 分钟前
AI输出无乱码
人工智能
艾醒(AiXing-w)22 分钟前
技术速递——通义千问 3.5 深度横评:纸面超越 GPT‑5.2,实测差距在哪?
人工智能·python·语言模型
xiangzhihong822 分钟前
Gemini 3.1 Pro血洗Claude与GPT,12项基准测试第一!
人工智能
爱跑步的程序员~29 分钟前
Spring AI会话记忆使用与底层实现
人工智能·spring
ppppppatrick31 分钟前
【深度学习基础篇】线性回归代码解析
人工智能·深度学习·线性回归
肾透侧视攻城狮31 分钟前
《工业级实战:TensorFlow房价预测模型开发、优化与问题排查指南》
人工智能·深度学习·tensorfl波士顿房价预测·调整网络结构·使用k折交叉验证·添加正则化防止过拟合·tensorflow之回归问题
王解43 分钟前
第四篇:万能接口 —— 插件系统设计与实现
人工智能·nanobot