论文阅读——MP-Former

MP-Former: Mask-Piloted Transformer for Image Segmentation

https://arxiv.org/abs/2303.07336

mask2former问题是:相邻层得到的掩码不连续,差别很大

denoising training非常有效地稳定训练时期之间的二分匹配。去噪训练的关键思想是将带噪声的GT坐标与可学习查询并行地送到Transformer解码器中,并训练模型去噪和恢复GT边框坐标。MPFormer去噪训练的思想从DN-DETR来,改进的mask2former模型。

MPformer送入class embeddings作为查询,给每层解码层送入GT masks作为attention masks,然后让模型重建类别和masks。

mask2former提出的mask attention可以使得训练时容易收敛。作者发现使得Vit类模型容易收敛的一些常识为给可学习的查询明确的意义,减少不确定性;二是给交叉注意力局部限制,更好的找到目标。因此作者认为给交叉注意力明确的导向可以提高分割性能。和DN-DETR不同,MPformer噪声可选择,可以没有。

作者把mask2former看做一个掩码不断精细化的过程,一层的预测作为下一层的attention masks。

MPformer是每层将GTmask作为attention masks,由于每层大小不一样,所以把GT使用双线性插值到不同分辨率。

加噪声的三种方式:

点噪声表现最好,所以用的点噪声。

Label-guided training:class embeddings会对应一个classification loss,class embeddings加噪声。

两种噪声,类别和掩码噪声的比例给的是0.2。

辅助函数:

结果

相关推荐
偶信科技2 分钟前
聚焦“一点”洞察海洋:偶信科技单点海流计引领精准观测新趋势
人工智能·科技·偶信科技·ocean·海洋仪器·单点海流计
汤姆yu8 分钟前
基于yolov8的深度学习垃圾分类检测系统
人工智能·深度学习
菠菠萝宝12 分钟前
从传统后端到AI智能驱动:Java + AI 生态深度实战技术总结
java·人工智能·ai·llm·知识图谱·ai编程·rag
独孤--蝴蝶13 分钟前
AI人工智能-大模型的演进-第十一周(上)(小白)
人工智能·深度学习·自然语言处理
喝拿铁写前端17 分钟前
AI 驱动前端开发覆盖的能力全景拆解
前端·javascript·人工智能
Dev7z25 分钟前
基于Matlab的Logistic混沌映射语音信号加密与解密系统设计与仿真
人工智能·语音识别
道可云27 分钟前
2026年企业AI应用演进趋势与CIO布局策略
人工智能·百度
DX_水位流量监测29 分钟前
压力式水位计的技术特性与应用实践
大数据·网络·人工智能·安全·信息可视化
SCBAiotAigc40 分钟前
langchain1.2学习笔记(一):安装langchain
人工智能·python·langchain
中國龍在廣州42 分钟前
生成不遗忘,「超长时序」世界模型,北大EgoLCD长短时记忆加持
人工智能·深度学习·算法·自然语言处理·chatgpt