2023.8.12号论文阅读

文章目录

  • [TriFormer: A Multi-modal Transformer Framework For Mild Cognitive Impairment Conversion Prediction](#TriFormer: A Multi-modal Transformer Framework For Mild Cognitive Impairment Conversion Prediction)
  • [SwIPE: Efficient and Robust Medical Image Segmentation with Implicit Patch Embeddings](#SwIPE: Efficient and Robust Medical Image Segmentation with Implicit Patch Embeddings)

TriFormer: A Multi-modal Transformer Framework For Mild Cognitive Impairment Conversion Prediction

摘要

轻度认知障碍(MCI)转化为阿尔茨海默病(AD)的预测对于早期治疗以预防或减缓AD的进展非常重要。为了准确预测MCI向稳定MCI或渐进式MCI的转换,我们提出了TriFormer,这是一种基于Transformer的新型框架,具有三个专用Transformer来整合多模态数据。

  • 图像Transformer从医学扫描中提取多视图图像特征
  • 临床Transformer嵌入和关联多模态临床数据
  • 模态融合Transformer,基于融合图像和临床Transformer的输出产生准确的预测

本文方法

左边的图像Transformer使用ViT从MRI中提取多视图图像特征。右边的临床Transformer研究不同临床数据之间的相关性。

图像切片标记与临床分类标记相连接,并作为模态融合转换器的输入,模态融合转换器结合提取的多模态特征来执行更准确的MCI转换预测。

实验结果

SwIPE: Efficient and Robust Medical Image Segmentation with Implicit Patch Embeddings

摘要

现代医学图像分割方法主要使用patch掩模形式的离散表示来学习特征并生成预测。虽然有效,但这种模式在空间上缺乏灵活性,难以适用于高分辨率图像,并且缺乏对物体形状的直接理解。为了解决这些限制,最近的一些研究利用隐式神经表征(INRs)来学习分割的连续表征。然而,这些方法往往直接采用为三维形状重建而设计的部件。更重要的是,这些公式也被限制在基于点或全局的上下文中,分别缺乏上下文理解或局部细粒度的细节,这两者都是准确分割的关键。

为了解决这个问题,我们提出了一种新颖的方法,SwIPE(隐式斑块嵌入分割),它利用inr的优势,在patch水平(而不是在点水平或图像水平)预测形状,从而实现准确的局部边界划定和全局形状一致性。

本文方法

在高层次上,SwIPE首先将输入图像编码为patch和图像形状embedding,然后使用这些embedding以及坐标信息P通过patch DP和图像解码器预测类占用分数

实验结果

相关推荐
Ayakanoinu17 分钟前
【论文阅读】VAD: Vectorized Scene Representation for Efficient Autonomous Driving
论文阅读
MhZhou041214 小时前
Virtual Sparse Convolution for Multimodal 3D Object Detection 论文阅读
论文阅读
0x21115 小时前
[论文阅读]Certifiably Robust RAG against Retrieval Corruption
论文阅读
何大春1 天前
【对话推荐系统综述】Broadening the View: Demonstration-augmented Prompt Learning for CR
论文阅读·人工智能·深度学习·语言模型·prompt·论文笔记
☞黑心萝卜三条杠☜2 天前
后门攻击仓库 backdoor attack
论文阅读·人工智能
FrancisQiu2 天前
LLM时代的小模型思考:《What is the Role of Small Models in the LLM Era: A Survey》论文笔记
论文阅读
带电的小王2 天前
Token:SentencePiece论文阅读--大模型中主流的分词算法
论文阅读·人工智能·算法·语言模型·大语言模型基础
Zhouqi_Hua3 天前
LLM论文笔记 19: On Limitations of the Transformer Architecture
论文阅读·人工智能·笔记·深度学习·语言模型·自然语言处理·transformer
栀子清茶3 天前
MobileMamba: Lightweight Multi-Receptive Visual Mamba Network——论文笔记
论文阅读
江木1236 天前
论文阅读和代码实现EfficientDet(BiFPN)
论文阅读