【论文阅读笔记】两篇完整模态脑瘤分割

两篇完整模态脑瘤分割论文,都是使用Transformer,没有什么特别的特色,也没有开源代码,因此只是简单记录一下。

3D CATBraTS: Channel attention transformer for brain tumour semantic segmentation

El Badaoui R, Coll E B, Psarrou A, et al. 3D CATBraTS: Channel attention transformer for brain tumour semantic segmentation[C]//2023 IEEE 36th International Symposium on Computer-Based Medical Systems (CBMS). IEEE, 2023: 489-494.

关键贡献:

  1. 提出了一种新型网络,使用ViT进行多模态MRI上的脑肿瘤3D分割,命名为3D CATBraTS。
  2. 提出了一种修改的CNN编码器架构,使用残差块和通道注意模块。
  3. 通过评估表明,该模型在BraTS 2021数据集的验证阶段,性能优于顶级模型,如Swin UNETR和SegResNet。

研究方法:


  1. 使用Swin变换器和通道注意残差块修改Swin UNETR模型的编码器。
  2. 输入网络的是使用四种不同MRI模态获取的脑MRI扫描。
  3. 在下采样阶段,编码器包含五个修改的Res块,增强了挤压和激励通道注意层。
  4. 使用跳跃连接和上采样阶段还原图像的原始分辨率。

数据集与实验:

  1. 使用BraTS 2021数据集进行训练和评估,该数据集包括1251个脑肿瘤案例的多参数MRI扫描。
  2. 进行了定量分析,使用Dice相似系数(DSC)作为评价指标。

结果与讨论:

  1. 3D CATBraTS在DSC方面表现优于Swin UNETR和SegResNet。
  2. 该方法在ET(增强肿瘤)、TC(肿瘤核心)和WT(整个肿瘤)的DSC得分分别为0.826、0.799和0.876,而Swin UNETR的分数分别为0.780、0.731和0.817。

总结: 论文提出的3D CATBraTS基于CNN编码器-解码器架构的Swin-T模型,在多模态MRI上进行脑肿瘤的3D分割。通过在编码器上的通道注意Res块的修改,该模型在肿瘤分割准确度上显示出更高的性能。在BraTS 2021数据集上的验证表明,该方法超越了当前最先进的方法。

Automated multi-modal Transformer network (AMTNet) for 3D medical images segmentation

Zheng S, Tan J, Jiang C, et al. Automated multi-modal Transformer network (AMTNet) for 3D medical images segmentation[J]. Physics in Medicine & Biology, 2023, 68(2): 025014.

这篇论文介绍了一种新型的自动化多模态Transformer网络,称为AMTNet,用于三维医学图像的分割。该研究的主要目的是将Transformer应用于多模态医学图像分割。过去几年,基于卷积神经网络的方法主导了医学图像分割领域,但这些方法难以表示长距离依赖关系。最近,Transformer因其自注意机制和在图像上编码长距离依赖性而在计算机视觉中表现出色,并已成功应用于医学图像分割。

AMTNet是一个U形网络结构,对特征编码、融合和解码部分进行了有效的改进。编码部分包括三维嵌入、三维多模态Transformer和三维共学习下采样模块。对称地,解码部分包括三维Transformer块、上采样块和三维扩展块。此外,设计了基于Transformer的自适应通道交错Transformer特征融合模块,以充分融合不同模态的特征。这种方法利用了Transformer和CNN的优势,有效地结合了全局和局部特征。

研究中使用了前列腺数据集和BraTS2021数据集进行全面的实验分析。结果表明,该方法在这两个数据集上分别实现了平均DSC(Dice Similarity Coefficient)0.907和0.851,显著优于现有的分割网络。此外,该研究还与其他先进的多模态分割方法进行了比较,如MFNet、TCSM、MAML、WNet和MSAM,并使用5折交叉验证进行评估。结果显示,AMTNet在DSC、Jaccard相似性系数、相对体积差异和95% Hausdorff距离等评估指标上表现优越。

实验过程中使用了Python 3.6、PyTorch 1.8.1和Ubuntu 16.04,所有训练过程均在单个12 GB NVIDIA 2080 Ti GPU上进行。数据预处理包括重采样、图像旋转、缩放、添加高斯噪声、高斯模糊、调整亮度和对比度等操作。

相关推荐
chushiyunen5 分钟前
dom操作笔记、xml和document等
xml·java·笔记
chushiyunen7 分钟前
tomcat使用笔记、启动失败但是未打印日志
java·笔记·tomcat
汇能感知12 分钟前
光谱相机的光谱数据采集原理
经验分享·笔记·科技
人人题35 分钟前
汽车加气站操作工考试答题模板
笔记·职场和发展·微信小程序·汽车·创业创新·学习方法·业界资讯
小脑斧爱吃鱼鱼1 小时前
鸿蒙项目笔记(1)
笔记·学习·harmonyos
lulinhao2 小时前
HCIA/HCIP基础知识笔记汇总
网络·笔记
杉之3 小时前
SpringBlade 数据库字段的自动填充
java·笔记·学习·spring·tomcat
WarPigs4 小时前
blender场景导入Unity的流程(个人总结)
笔记
小杨爱学习zb5 小时前
学习总结 网格划分+瞬态求解设置
笔记·学习·算法
梦星辰.5 小时前
EAGLE-3投机采样论文阅读
论文阅读