论文笔记:Treat Visual Tokens as Text? But Your MLLM Only Needs Fewer Efforts to See

2024 10月的arxiv

1 主要idea

  • 针对多模态大模型(如LLaVA),提出了一系列高效的剪枝策略
    • 在显著降低计算开销(多达 88%)的同时,保持了模型在多模态任务中的性能表现

2 目前的问题

  • 与文本 token 相比,视觉 token 的数量往往更为庞大
    • 在 LLaVA 模型中,处理一张图像涉及超过 500 个视觉 token,而对应的文本 token 只有数十个
      • ------>计算效率低下
      • ------>视觉数据固有的空间稀疏性导致许多计算是冗余的
        • 大部分视觉 token 之间的交互权重很低,仅有邻近 token 之间的交互是关键
        • 在深层模型中,视觉 token 对文本生成的影响逐渐减弱
  • 目前的优化策略通常以牺牲模型性能为代价
    • ------>如何在保持性能的同时显著降低计算复杂度,仍是一个急需解决的

3 论文方法

4 实验

效果没怎么降,FLOP降多了

相关推荐
风象南12 分钟前
Token太贵?我用这个数据格式把上下文窗口扩大2倍
人工智能·后端
NAGNIP9 小时前
轻松搞懂全连接神经网络结构!
人工智能·算法·面试
moshuying11 小时前
别让AI焦虑,偷走你本该有的底气
前端·人工智能
董董灿是个攻城狮11 小时前
零基础带你用 AI 搞定命令行
人工智能
喝拿铁写前端13 小时前
Dify 构建 FE 工作流:前端团队可复用 AI 工作流实战
前端·人工智能
阿里云大数据AI技术14 小时前
阿里云 EMR Serverless Spark + DataWorks 技术实践:引领企业 Data+AI 一体化转型
人工智能
billhan201614 小时前
MCP 深入理解:协议原理与自定义开发
人工智能
Jahzo14 小时前
openclaw桌面端体验--ClawX
人工智能·github
billhan201614 小时前
Agent 开发全流程:从概念到生产
人工智能