论文阅读:LAPFormer: A Light and Accurate PolypSegmentation Transformer

这是一个基于Transformer的轻量级图像分割模型。作者们使用MiT(Mix Transformer)作为编码器,并为LAPFormer设计了一个新颖的解码器,该解码器利用多尺度特征,并包含特征精炼模块和特征选择模块,以生成精细的息肉分割掩码。

1,模型的整体结构:

LAPFormer模型的整体结构是一个编解码器(Encoder-Decoder)架构,其中编码器基于Transformer,而解码器则是一个新颖的CNN结构。

2,编码器:

编码器分支会输出四个分辨率不同的特征图,用于捕捉不同尺度的特征。

其中MiT使用卷积核而不是位置编码(Positional Encoding, PE),这样做是为了在测试分辨率与训练分辨率不同时避免性能下降。卷积层被认为更适合于为Transformer提取位置信息。

MiT使用4x4的小图像块作为输入,这被证明有利于密集预测任务,如语义分割。

3,解码器:

解码器部分包含:特征精炼模块(FRM),特征选择模块(FSM),渐进特征融合(PFF)和低层连接。

1)特征精炼模块(FRM):

结构如下:

作用是增强局部特征并减少噪声。

2)特征选择模块(FSM)

在预测之前,FSM通过加权向量强调重要特征图并抑制冗余信息,从而帮助网络集中注意力于重要区域。本质是一个注意力机制。

3)渐进特征融合(PFF)

逐步融合来自上层和下层尺度的特征,减少低分辨率、高语义特征图与高分辨率、低语义特征图之间的信息差距。

4)低层连接

通过跳跃连接将FSM的输出特征图与渐进特征融合中的最低层特征图连接起来,以增强模型对息肉边界的预测能力。

4,实验结果:

相关推荐
墨北小七3 小时前
使用InspireFace进行智慧楼宇门禁人脸识别的训练微调
人工智能·深度学习·神经网络
数智工坊3 小时前
【Mask2Former论文阅读】:基于掩码注意力的通用分割Transformer,大一统全景/实例/语义分割
论文阅读·深度学习·transformer
fpcc4 小时前
AI和大模型——Fine-tuning
人工智能·深度学习
AI医影跨模态组学5 小时前
如何将纵向MRI深度学习特征与局部晚期直肠癌新辅助放化疗后的免疫微环境建立关联,并解释其对pCR及预后的机制
人工智能·深度学习·论文·医学·医学影像·影像组学
西西弗Sisyphus7 小时前
从零实现Transformer:第 4 部分 - 残差连接、层归一化与前馈网络(Add & Norm, Feed-Forward)
resnet·transformer·attention·注意力机制·注意力
冰西瓜6007 小时前
深度学习的数学原理(三十三)—— Transformer编码器完整实现
人工智能·深度学习·transformer
我是大聪明.9 小时前
CUDA矩阵乘法优化:共享内存分块与Warp级执行机制深度解析
人工智能·深度学习·线性代数·机器学习·矩阵
码云数智-大飞9 小时前
大模型幻觉:成因解析与有效避免策略
人工智能·深度学习
木枷10 小时前
rl/swe/sft相关论文列表
人工智能·深度学习
A7bert77710 小时前
【YOLOv8pose部署至RDK X5】模型训练→转换bin→Sunrise 5部署
c++·python·深度学习·yolo·目标检测