论文阅读:FCB-SwinV2 Transformer for Polyp Segmentation

这是对FCBFormer的改进,我的关于FCBFormer的论文阅读笔记:论文阅读FCN-Transformer Feature Fusion for PolypSegmentation-CSDN博客

1,整体结构

依然是一个双分支结构,总体结构如下:

其中一个是全卷积分支,一个是Transformer分支。

和FCBFormer不同的是,对两个分支都做了一些修改。

2,FCB分支

本文没有画FCB分支的整体结构,我们借用一下FCBFormer的结构图看一下:

相比FCBFormer,FCB-SwinV2 Transformer模型中的FCB分支进行了以下主要改进:

1)通道维度增加:FCB分支的通道维度被增加,以匹配从SwinV2 Transformer-UNET分支输出的通道维度数量。这样做是为了确保两个分支的输出可以在合并之前具有相同的维度,从而更有效地结合两种架构的优势。

2)组归一化顺序调整:在FCB分支的残差块(RB)中,组归一化(GN)的顺序被调整,以适应SwinV2 Transformer中的残差后归一化(residual post normalization)方法。RB模块的调整如下:

左边为原来的RB模块,右边是本文用的RB模块。主要是把先归一化再卷积,调整为先卷积再做归一化。

3)残差块改进:残差块的设计受到了SwinV2 Transformer中残差后归一化方法的启发。在FCB-SwinV2 Transformer中,残差块的归一化步骤被放置在卷积层之后,这与原始FCBFormer中的顺序不同。

3,TB分支

TB模块采用了SwinV2 Transformer作为其核心,SwinV2 Transformer通过引入"残差后归一化"(residual post normalization)和修改注意力机制来优化原始的Swin Transformer。

解码器模块(scse)如下:

scse模块由cse和sse两个子模块构成。

1)CSE(Channel Squeeze and Excitation)模块是一种注意力机制,它通过显式地建模通道间的依赖关系来增强网络的特征表示能力。

CSE整体结构:

复制代码
输入特征图: F
1. 通道全局平均池化: G = Global_Average_Pooling(F)
2. 卷积和激活: H = Activation(Conv(G))
3. 逐元素乘法: Output = H * F

2)SSE(Spatial Squeeze and Excitation)模块是一种用于增强特征图中空间特征的注意力机制。

SSE整体结构:

复制代码
输入特征图: F
1. 通道压缩: G = Conv(F)  # 使用1x1卷积核
2. 空间激励: H = Activation(G)
3. 逐元素乘法: Output = H * F

把编码器和解码器按照UNET的结构组合起来就是TB分支。

4,实验结果:

相关推荐
xiaoxiaoxiaolll1 小时前
期刊速递 | 《Light Sci. Appl.》超宽带光热电机理研究,推动碳纳米管传感器在制药质控中的实际应用
人工智能·学习
练习两年半的工程师1 小时前
AWS TechFest 2025: 风险模型的转变、流程设计的转型、生成式 AI 从实验走向实施的三大关键要素、评估生成式 AI 用例的适配度
人工智能·科技·金融·aws
Elastic 中国社区官方博客3 小时前
Elasticsearch:智能搜索的 MCP
大数据·人工智能·elasticsearch·搜索引擎·全文检索
stbomei3 小时前
从“能说话”到“会做事”:AI Agent如何重构日常工作流?
人工智能
yzx9910134 小时前
生活在数字世界:一份人人都能看懂的网络安全生存指南
运维·开发语言·网络·人工智能·自动化
许泽宇的技术分享5 小时前
LangGraph深度解析:构建下一代智能Agent的架构革命——从Pregel到现代AI工作流的技术飞跃
人工智能·架构
乔巴先生245 小时前
LLMCompiler:基于LangGraph的并行化Agent架构高效实现
人工智能·python·langchain·人机交互
静西子6 小时前
LLM大语言模型部署到本地(个人总结)
人工智能·语言模型·自然语言处理
cxr8286 小时前
基于Claude Code的 规范驱动开发(SDD)指南
人工智能·hive·驱动开发·敏捷流程·智能体
Billy_Zuo7 小时前
人工智能机器学习——决策树、异常检测、主成分分析(PCA)
人工智能·决策树·机器学习