【论文阅读笔记】两篇完整模态脑瘤分割

两篇完整模态脑瘤分割论文,都是使用Transformer,没有什么特别的特色,也没有开源代码,因此只是简单记录一下。

3D CATBraTS: Channel attention transformer for brain tumour semantic segmentation

El Badaoui R, Coll E B, Psarrou A, et al. 3D CATBraTS: Channel attention transformer for brain tumour semantic segmentation[C]//2023 IEEE 36th International Symposium on Computer-Based Medical Systems (CBMS). IEEE, 2023: 489-494.

关键贡献:

  1. 提出了一种新型网络,使用ViT进行多模态MRI上的脑肿瘤3D分割,命名为3D CATBraTS。
  2. 提出了一种修改的CNN编码器架构,使用残差块和通道注意模块。
  3. 通过评估表明,该模型在BraTS 2021数据集的验证阶段,性能优于顶级模型,如Swin UNETR和SegResNet。

研究方法:


  1. 使用Swin变换器和通道注意残差块修改Swin UNETR模型的编码器。
  2. 输入网络的是使用四种不同MRI模态获取的脑MRI扫描。
  3. 在下采样阶段,编码器包含五个修改的Res块,增强了挤压和激励通道注意层。
  4. 使用跳跃连接和上采样阶段还原图像的原始分辨率。

数据集与实验:

  1. 使用BraTS 2021数据集进行训练和评估,该数据集包括1251个脑肿瘤案例的多参数MRI扫描。
  2. 进行了定量分析,使用Dice相似系数(DSC)作为评价指标。

结果与讨论:

  1. 3D CATBraTS在DSC方面表现优于Swin UNETR和SegResNet。
  2. 该方法在ET(增强肿瘤)、TC(肿瘤核心)和WT(整个肿瘤)的DSC得分分别为0.826、0.799和0.876,而Swin UNETR的分数分别为0.780、0.731和0.817。

总结: 论文提出的3D CATBraTS基于CNN编码器-解码器架构的Swin-T模型,在多模态MRI上进行脑肿瘤的3D分割。通过在编码器上的通道注意Res块的修改,该模型在肿瘤分割准确度上显示出更高的性能。在BraTS 2021数据集上的验证表明,该方法超越了当前最先进的方法。

Automated multi-modal Transformer network (AMTNet) for 3D medical images segmentation

Zheng S, Tan J, Jiang C, et al. Automated multi-modal Transformer network (AMTNet) for 3D medical images segmentation[J]. Physics in Medicine & Biology, 2023, 68(2): 025014.

这篇论文介绍了一种新型的自动化多模态Transformer网络,称为AMTNet,用于三维医学图像的分割。该研究的主要目的是将Transformer应用于多模态医学图像分割。过去几年,基于卷积神经网络的方法主导了医学图像分割领域,但这些方法难以表示长距离依赖关系。最近,Transformer因其自注意机制和在图像上编码长距离依赖性而在计算机视觉中表现出色,并已成功应用于医学图像分割。

AMTNet是一个U形网络结构,对特征编码、融合和解码部分进行了有效的改进。编码部分包括三维嵌入、三维多模态Transformer和三维共学习下采样模块。对称地,解码部分包括三维Transformer块、上采样块和三维扩展块。此外,设计了基于Transformer的自适应通道交错Transformer特征融合模块,以充分融合不同模态的特征。这种方法利用了Transformer和CNN的优势,有效地结合了全局和局部特征。

研究中使用了前列腺数据集和BraTS2021数据集进行全面的实验分析。结果表明,该方法在这两个数据集上分别实现了平均DSC(Dice Similarity Coefficient)0.907和0.851,显著优于现有的分割网络。此外,该研究还与其他先进的多模态分割方法进行了比较,如MFNet、TCSM、MAML、WNet和MSAM,并使用5折交叉验证进行评估。结果显示,AMTNet在DSC、Jaccard相似性系数、相对体积差异和95% Hausdorff距离等评估指标上表现优越。

实验过程中使用了Python 3.6、PyTorch 1.8.1和Ubuntu 16.04,所有训练过程均在单个12 GB NVIDIA 2080 Ti GPU上进行。数据预处理包括重采样、图像旋转、缩放、添加高斯噪声、高斯模糊、调整亮度和对比度等操作。

相关推荐
美式小田2 小时前
单片机学习笔记 9. 8×8LED点阵屏
笔记·单片机·嵌入式硬件·学习
猫爪笔记2 小时前
前端:HTML (学习笔记)【2】
前端·笔记·学习·html
_不会dp不改名_2 小时前
HCIA笔记3--TCP-UDP-交换机工作原理
笔记·tcp/ip·udp
-一杯为品-3 小时前
【51单片机】程序实验5&6.独立按键-矩阵按键
c语言·笔记·学习·51单片机·硬件工程
熙曦Sakura4 小时前
完全竞争市场
笔记
何大春5 小时前
【弱监督语义分割】Self-supervised Image-specific Prototype Exploration for WSSS 论文阅读
论文阅读·人工智能·python·深度学习·论文笔记·原型模式
dr李四维5 小时前
iOS构建版本以及Hbuilder打iOS的ipa包全流程
前端·笔记·ios·产品运营·产品经理·xcode
Komorebi.py9 小时前
【Linux】-学习笔记05
linux·笔记·学习
亦枫Leonlew9 小时前
微积分复习笔记 Calculus Volume 1 - 6.5 Physical Applications
笔记·数学·微积分
冰帝海岸14 小时前
01-spring security认证笔记
java·笔记·spring