C-Net
期刊分析
期刊名:
Computer Methods and Programs in Biomedicine
期刊信息:
IF: 6.1; JCR: Q1; 中科院二区
投稿周期:
本篇: Received: 25 June; Revised: 13 November; Accepted: 25 November
网站统计:录用比例:50%; 审稿周期:约4个月
其余信息:
LetPub
该论文没有代码,纯纯学习的
摘要
背景与目的: 乳腺病灶分割是计算机辅助诊断系统的重要一步。然而,散斑噪声、异质结构和相似的强度分布给乳腺病灶分割带来了挑战。
方法: 在本文中,我们提出了一种集成 U-net、双向注意引导网络(BAGNet)和细化残差网络(RFNet)的新型级联卷积神经网络,用于乳腺超声图像中的病变分割。具体来说,我们首先使用 U-net 生成一组包含低级和高级图像结构的显着图。然后,使用双向注意力引导网络从显着性图中捕获全局(低级)和局部(高级)特征之间的上下文。全局特征图的引入可以减少周围组织对病变区域的干扰。此外,我们基于 U-net 的核心架构开发了一个细化残差网络,以学习粗略显着性特征图和真实掩模之间的差异。残差的学习可以帮助我们获得更完整的病变掩模。
结果: 为了评估网络的分割性能,我们使用六种常用的评估指标在公共乳腺超声数据集(BUSIS)上与几种最先进的分割方法进行了比较。我们的方法在六个指标上取得了最高分。此外,p 值表明我们的方法与比较方法之间存在显着差异。
结论: 实验结果表明,我们的方法取得了最具竞争力的分割结果。此外,我们将该网络应用于肾脏超声图像分割。总的来说,我们的方法对超声图像分割具有良好的适应性和鲁棒性。
贡献
- 首先,我们开发了一种新颖的双向注意力引导网络(BAGNet),并用它构建了级联卷积神经网络(表示为:C-Net)来从超声图像中分割乳腺病变。
- 其次,我们使用六个评估指标在公共 BUS 数据集上评估了分割网络,实验结果表明我们的方法在 BUS 图像分割上优于最先进的分割方法。
- 此外,我们的方法应用于肾脏超声图像分割,与最先进的分割方法相比,具有很大的竞争力。
方法
整体框架
因为没有代码,就只能看看人家的模型思路了🐕。重点是三个部分,首先:基础U-Net做特征初步提取(coarse feature maps),其次:双向注意力引导网络进一步提取形状信息,最后:细化残差网络对病灶边界进行精细学习。
1. Bidirectional attention guidance network (BAGNet)
1. BAG-Net是由8个BGB模块组成的,每个BGB模块中包含一个全局特征引导和一个多尺度特征引导
2. BGB模块的输入是U-Net模型的基础输出,然后经过下采样进行初步特征操作,之后卷积模块和sigmoid函数进行权重求解
3. 论文中没有具体介绍如何将BGB模块嵌入到BGANet中,想要具体实现流程还是得作者的代码
2. Refinement residual network (RFNet)
1. 就是一个更加简单的U-Net,每个模块包含一个 3 × 3 Conv、一个BN、一个Linear
2. 通过深度监督进行模型训练,可以在不同阶段对模型的参数调整达到对特征的学习目的
实验
使用BUSI数据集(良恶性分开进行实验)+ 肾脏私有数据集进行外部验证;
1. 对比实验
1. 针对这种有类别的分割数据集,进行分类别分割的实验,会给人一种工作量很多的感觉
2. 这个数据集分割结果在我统计的几篇乳腺分割文章中属于较低的存在
2. 消融实验
1. 只是加了BAGNet的话,效果有着质的提升,但是再加上RFNet的话,结果提升就很有限
2. 可以猜测,如果只添加了RFNet话,效果也是有着很大的提升,但是两个都加上的话,提升就很有限,我当前遇到的就是这类问题🚀
可借鉴参考
暂无