论文笔记:Treat Visual Tokens as Text? But Your MLLM Only Needs Fewer Efforts to See

2024 10月的arxiv

1 主要idea

  • 针对多模态大模型(如LLaVA),提出了一系列高效的剪枝策略
    • 在显著降低计算开销(多达 88%)的同时,保持了模型在多模态任务中的性能表现

2 目前的问题

  • 与文本 token 相比,视觉 token 的数量往往更为庞大
    • 在 LLaVA 模型中,处理一张图像涉及超过 500 个视觉 token,而对应的文本 token 只有数十个
      • ------>计算效率低下
      • ------>视觉数据固有的空间稀疏性导致许多计算是冗余的
        • 大部分视觉 token 之间的交互权重很低,仅有邻近 token 之间的交互是关键
        • 在深层模型中,视觉 token 对文本生成的影响逐渐减弱
  • 目前的优化策略通常以牺牲模型性能为代价
    • ------>如何在保持性能的同时显著降低计算复杂度,仍是一个急需解决的

3 论文方法

4 实验

效果没怎么降,FLOP降多了

相关推荐
Dev7z10 分钟前
当AI学会“听诊”:心肺听诊分析系统,正在悄悄改变医疗
人工智能
池央11 分钟前
atvoss:AI 处理器上的智能语音与多媒体解决方案,赋能高效实时交互
人工智能·交互
码云数智-大飞30 分钟前
小程序制作平台有哪些?SaaS小程序制作平台对比评测
大数据·人工智能
新缸中之脑1 小时前
Arduino AI手势识别系统
人工智能
码农小韩1 小时前
AIAgent应用开发——DeepSeek分析(二)
人工智能·python·深度学习·agent·强化学习·deepseek
ctrigger1 小时前
家和万事兴
大数据·人工智能·生活
Bill Adams1 小时前
深度解析 WebMCP:让网页成为 AI 智能体的工具库
人工智能·智能体·mcp
新缸中之脑1 小时前
StrongDM:软件黑灯工厂
人工智能
冰西瓜6001 小时前
深度学习的数学原理(八)—— 过拟合与正则化
人工智能·深度学习
Christo31 小时前
windows系统配置openclaw
人工智能·机器学习