论文阅读:LAPFormer: A Light and Accurate PolypSegmentation Transformer

这是一个基于Transformer的轻量级图像分割模型。作者们使用MiT(Mix Transformer)作为编码器,并为LAPFormer设计了一个新颖的解码器,该解码器利用多尺度特征,并包含特征精炼模块和特征选择模块,以生成精细的息肉分割掩码。

1,模型的整体结构:

LAPFormer模型的整体结构是一个编解码器(Encoder-Decoder)架构,其中编码器基于Transformer,而解码器则是一个新颖的CNN结构。

2,编码器:

编码器分支会输出四个分辨率不同的特征图,用于捕捉不同尺度的特征。

其中MiT使用卷积核而不是位置编码(Positional Encoding, PE),这样做是为了在测试分辨率与训练分辨率不同时避免性能下降。卷积层被认为更适合于为Transformer提取位置信息。

MiT使用4x4的小图像块作为输入,这被证明有利于密集预测任务,如语义分割。

3,解码器:

解码器部分包含:特征精炼模块(FRM),特征选择模块(FSM),渐进特征融合(PFF)和低层连接。

1)特征精炼模块(FRM):

结构如下:

作用是增强局部特征并减少噪声。

2)特征选择模块(FSM)

在预测之前,FSM通过加权向量强调重要特征图并抑制冗余信息,从而帮助网络集中注意力于重要区域。本质是一个注意力机制。

3)渐进特征融合(PFF)

逐步融合来自上层和下层尺度的特征,减少低分辨率、高语义特征图与高分辨率、低语义特征图之间的信息差距。

4)低层连接

通过跳跃连接将FSM的输出特征图与渐进特征融合中的最低层特征图连接起来,以增强模型对息肉边界的预测能力。

4,实验结果:

相关推荐
ziwu44 分钟前
植物病害识别系统Python+卷积神经网络算法+图像识别+人工智能项目+深度学习项目+计算机课设项目+Django网页界面
人工智能·深度学习·图像识别
大耳朵爱学习5 小时前
掌握Transformer之注意力为什么有效
人工智能·深度学习·自然语言处理·大模型·llm·transformer·大语言模型
qq_15321452645 小时前
【2023工业异常检测文献】SimpleNet
图像处理·人工智能·深度学习·神经网络·机器学习·计算机视觉·视觉检测
B站计算机毕业设计超人7 小时前
计算机毕业设计Python+Flask微博情感分析 微博舆情预测 微博爬虫 微博大数据 舆情分析系统 大数据毕业设计 NLP文本分类 机器学习 深度学习 AI
爬虫·python·深度学习·算法·机器学习·自然语言处理·数据可视化
羊小猪~~8 小时前
深度学习基础案例5--VGG16人脸识别(体验学习的痛苦与乐趣)
人工智能·python·深度学习·学习·算法·机器学习·cnn
AI大模型知识分享11 小时前
Prompt最佳实践|如何用参考文本让ChatGPT答案更精准?
人工智能·深度学习·机器学习·chatgpt·prompt·gpt-3
小言从不摸鱼13 小时前
【AI大模型】ChatGPT模型原理介绍(下)
人工智能·python·深度学习·机器学习·自然语言处理·chatgpt
酱香编程,风雨兼程17 小时前
深度学习——基础知识
人工智能·深度学习
#include<菜鸡>18 小时前
动手学深度学习(pytorch土堆)-04torchvision中数据集的使用
人工智能·pytorch·深度学习
拓端研究室TRL18 小时前
TensorFlow深度学习框架改进K-means聚类、SOM自组织映射算法及上海招生政策影响分析研究...
深度学习·算法·tensorflow·kmeans·聚类