CVPR 2025 MIMO: 支持视觉指代和像素grounding 的医学视觉语言模型

CVPR 2025 | MIMO:支持视觉指代和像素对齐的医学视觉语言模型

论文信息

  • 标题:MIMO: A medical vision language model with visual referring multimodal input and pixel grounding multimodal output
  • 作者:Yanyuan Chen, Dexuan Xu, Yu Huang, 等
  • 单位:北京大学软件与微电子学院、计算机科学学院、第六医院等
  • 收录会议:CVPR 2025
  • 论文链接GitHub项目地址

背景介绍

近年来,医学视觉语言模型(MVLMs)在医学图像问答等任务中展现出巨大潜力。然而,现有模型大多只能处理文本指令,缺乏对图像中具体视觉区域的直接理解,输出也仅限于文本,难以与图像中的关键区域建立精准联系。


创新点概述

本文提出 MIMO,首个支持"视觉指代多模态输入"和"像素级对齐多模态输出"的医学视觉语言模型。其主要创新包括:

  1. 视觉指代输入:支持将文本指令与图像中的点、框等视觉提示共同输入,实现对医学图像关键区域的精准提问。
  2. 像素对齐输出:模型不仅输出文本答案,还能将文本中的医学实体与图像中的具体分割区域一一对应,实现"所见即所得"。
  3. 大规模多模态数据集:自建 MIMOSeg 数据集,包含 89.5 万条高质量样本,覆盖 CT、X 光等 8 种医学图像模态,支持多种复杂任务场景。

方法框架

MIMO 模型主要由以下几个部分组成:

  • 视觉编码器:采用 CLIP ViT-H/14 提取图像特征。
  • 视觉提示编码器:对点、框等提示进行编码,辅助模型理解用户关注区域。
  • 多模态输入对齐器:融合文本、图像、视觉提示等多模态信息,实现高效跨模态对齐。
  • 大语言模型:基于 Vicuna,负责文本生成,并通过特殊标记将关键医学实体与分割掩码关联。
  • 分割解码器:借助 SAM(Segment Anything Model)等分割模型,输出实体对应的像素级掩码。

数据集构建

MIMOSeg 包含四大任务视角:

  1. 文本指导分割:仅靠文本指令分割目标区域。
  2. 视觉提示感知:结合视觉提示(点/框)和文本指令分割目标区域。
  3. 分割对齐问答:在问答中输出与实体对应的分割掩码。
  4. 视觉提示辅助问答:结合视觉提示和问答,输出答案及分割区域。

覆盖 CT、X 光、眼底、病理等丰富数据,极大提升模型泛化能力。


实验结果

  • 在 MIMOSeg 和多个公开医学数据集上的实验表明,MIMO 在分割准确率、问答质量等方面均大幅优于现有主流模型(如 SAM、LLaVA-Med、HuatuoGPT-Vision 等)。
  • 消融实验进一步验证了多模态输入对齐器等关键模块的有效性。

总结与展望

MIMO 是首个实现 视觉指代+像素落地 能力的医学视觉语言模型,极大提升了医学 AI 对图像及文本复杂关系的理解与表达能力。未来,该模型有望应用于智能辅助诊断、影像报告生成等医学场景,推动多模态医学 AI 的发展。


项目地址https://github.com/pkusixspace/MIMO


欢迎关注,获取更多前沿 AI 论文与解读!

相关推荐
emo猫pro_max2 小时前
openclaw飞书流式回复配置指南
人工智能
FishCoderh2 小时前
被OpenClaw的Session搞晕了?这篇让你彻底搞懂
人工智能
孤烟3 小时前
19 万 + GitHub 星标!OpenClaw 凭什么成为 2026 最火 AI Agent,万字实测告诉你
人工智能
zhl774 小时前
YOLOv5:从0搭建你的第一个目标检测模型
人工智能
TechFind4 小时前
用 OpenClaw 搭建企业微信 AI Agent:从零到自动化客服只需 30 分钟
人工智能·agent
FishCoderh4 小时前
OpenClaw部署后Tools工具权限被禁用?一行配置解决
人工智能
飞哥数智坊5 小时前
openclaw 不是全站第一!但它的爆发,足以引人深思
人工智能
zone77396 小时前
001:LangChain的LCEL语法学习
人工智能·后端·面试
程序员鱼皮7 小时前
微软竟然出了免费的 AI 应用开发课?!我已经学上了
人工智能·程序员·ai编程
DevnullCoffe7 小时前
基于 OpenClaw + Pangolinfo API 的 Amazon 价格监控系统:架构设计与最佳实践
人工智能·架构