论文笔记:Treat Visual Tokens as Text? But Your MLLM Only Needs Fewer Efforts to See

2024 10月的arxiv

1 主要idea

  • 针对多模态大模型(如LLaVA),提出了一系列高效的剪枝策略
    • 在显著降低计算开销(多达 88%)的同时,保持了模型在多模态任务中的性能表现

2 目前的问题

  • 与文本 token 相比,视觉 token 的数量往往更为庞大
    • 在 LLaVA 模型中,处理一张图像涉及超过 500 个视觉 token,而对应的文本 token 只有数十个
      • ------>计算效率低下
      • ------>视觉数据固有的空间稀疏性导致许多计算是冗余的
        • 大部分视觉 token 之间的交互权重很低,仅有邻近 token 之间的交互是关键
        • 在深层模型中,视觉 token 对文本生成的影响逐渐减弱
  • 目前的优化策略通常以牺牲模型性能为代价
    • ------>如何在保持性能的同时显著降低计算复杂度,仍是一个急需解决的

3 论文方法

4 实验

效果没怎么降,FLOP降多了

相关推荐
卷福同学2 分钟前
QClaw内测体验,能用微信指挥AI干活了
人工智能·算法·ai编程
sali-tec4 分钟前
C# 基于OpenCv的视觉工作流-章34-投影向量
图像处理·人工智能·opencv·算法·计算机视觉
hughnz6 分钟前
钻井软件市场观察
人工智能·钻井
昊色居士37 分钟前
从 APK 到完整 API:逆向工程 JavDB 移动端全过程
人工智能·逆向
Alsian1 小时前
Day43 随机张量与广播机制
人工智能·深度学习·神经网络·机器学习
hixiong1231 小时前
C# OpenvinoSharp使用RAD进行缺陷检测
开发语言·人工智能·c#·openvino
小和尚同志1 小时前
还有人在问 Skills 是啥?感觉和 prompt 一样
人工智能·aigc
星和月1 小时前
人工智能与神经网络
人工智能
田里的水稻1 小时前
ubuntu22.04_构建openclaw开发框架
运维·人工智能·python
Trisyp1 小时前
Word2vec核心模型精讲:CBOW与Skip-gram
人工智能·自然语言处理·word2vec