【论文阅读】 Cola-Dif; An explainable task-specific synthesis network

文章目录

    • [CoLa-Diff: Conditional Latent Diffusion Model for Multi-modal MRI Synthesis](#CoLa-Diff: Conditional Latent Diffusion Model for Multi-modal MRI Synthesis)
    • [An Explainable Deep Framework: Towards Task-Specific Fusion for Multi-to-One MRI Synthesis](#An Explainable Deep Framework: Towards Task-Specific Fusion for Multi-to-One MRI Synthesis)

CoLa-Diff: Conditional Latent Diffusion Model for Multi-modal MRI Synthesis

论文地址 https://conferences.miccai.org/2023/papers/126-Paper2305.html
摘要:

大多数基于扩散的 MRI 合成模型都使用单一模态;一般在保存结构方面失败;并且为了减少内存消耗。
提出:

在浅层进行扩散,减少内存消耗

和扩散模型基本一致,就是在输入网络里面加入了条件y。损失函数也就是在里面加入了条件y。

类似的协同过滤:

将特征信息进行提取以及融合处理;这里面都是通过小波变换提取的信号。块匹配 δ或阈值 γ。
结构指导:

使用FSL-FAST来分割四种类型脑组织。E里面的结构。将其作为条件输入进去。
自动权重适应:

可以理解为计算能量。

S是Sigmoid激活函数,v,o是可学习的权重。

An Explainable Deep Framework: Towards Task-Specific Fusion for Multi-to-One MRI Synthesis

论文地址 https://conferences.miccai.org/2023/papers/057-Paper0599.html

和本篇论文相关的HyperConv论文地址:https://arxiv.org/abs/2302.00517
摘要:

很多方法缺乏量化不同输入序列的贡献和估计所生成图像中的区域特定质量的能力,使得其难以实用。提出了一个可解释的任务特定的融合序列到序列(TSF-Seq 2Seq)网络,它具有自适应权重的特定合成任务与不同的输入组合和目标。

首先将每个特征通过E进行特征提取,然后进行融合,之后通过TSC编码(0-1)进行加权融合。同时并行的将融合特征通过TSA进行处理。

当某个序列没有输入时:使用0代替。
Task-Specific Weighted Average

c是编码,b是偏执,theta是为了避免除0错误。

Task-Specific Attention

使用HyperConv代替CBAM中的卷积,HyperConv是一个动态滤波器,其内核从共享权重库映射,映射函数由给定的目标代码生成。
损失函数

希望这两个都可以重建为目标图像

特定任务增强映射

得到的结果就是增强映射。通过实验可以看到在重要,难得部分有很大效果。

相关推荐
Chandler_Song11 小时前
【读书笔记】《有限与无限的游戏》
论文阅读
无妄无望15 小时前
目标计数论文阅读(2)Learning To Count Everything
论文阅读·everything
七元权15 小时前
论文阅读-Correlate and Excite
论文阅读·深度学习·注意力机制·双目深度估计
李加号pluuuus15 小时前
【论文阅读】Language-Guided Image Tokenization for Generation
论文阅读
ZHANG8023ZHEN15 小时前
fMoE论文阅读笔记
论文阅读·笔记
张较瘦_15 小时前
[论文阅读] 人工智能 + 软件工程 | 大语言模型驱动的多来源漏洞影响库识别研究解析
论文阅读·人工智能·语言模型
有Li1 天前
基于联邦学习与神经架构搜索的可泛化重建:用于加速磁共振成像|文献速递-最新医学人工智能文献
论文阅读·人工智能·文献·医学生
川川子溢2 天前
【论文阅读】MEDDINOV3:如何调整视觉基础模型用于医学图像分割?
论文阅读
Xy-unu2 天前
[VL|RIS] RSRefSeg 2
论文阅读·人工智能·transformer·论文笔记·分割
张较瘦_2 天前
[论文阅读] 告别“数量为王”:双轨道会议模型+LS,破解AI时代学术交流困局
论文阅读·人工智能