VoCo-LLaMA: Towards Vision Compression with Large Language Models

视觉语言模型在各种多模态任务上取得了显著的成功,但经常受到有限上下文窗口和处理高分辨率图像输入和视频的高计算成本的瓶颈。视觉压缩可以通过减少视觉令牌数量避免该问题。先前方法使用额外模块压缩视觉令牌并强制LLM理解压缩的令牌。然而,LLM对视觉令牌的理解范式在压缩学习过程中没有充分利用。本文提出了VoCo-LLaMA,这是第一种使用LLM压缩视觉视觉令牌的方法。通过在视觉指令调整过程中引入视觉压缩令牌并利用注意力蒸馏,本文方法蒸馏了LLM如何将LLM视觉令牌理解到它们对VoCo令牌的处理。

VoCo-LLaMA

本文VoCo-LLaMA算法引入特殊的视觉压缩(Vision Compression,VoCo)令牌,以利用LLM压缩和理解图像压缩表示的能力。大语言模型输入序列由连接视觉令牌,特殊的VoCo令牌和文本令牌形成。

X = ( V , V o C o , T ) = ( V 0 , ... , V n , V o C o , T 0 , ... , T m ) \mathcal{X}=(\mathcal{V},VoCo,\mathcal{T})=(V_{0},\ldots,V_{n},VoCo,T_{0},\ldots,T_{m}) X=(V,VoCo,T)=(V0,...,Vn,VoCo,T0,...,Tm)

在训练阶段,使用两阶段注意力机制。最初,本文对文本令牌施加一个约束,明确阻止它们关注原始视觉令牌,同时强迫它们只关注压缩和蒸馏的VoCo令牌。随后由于casual Transformer,视觉令牌受到VoCo令牌的持续关注。这种刻意的设计保证了文本令牌只捕捉VoCo令牌中编码的蒸馏视觉信息,而不是直接与原始视觉令牌交互,实现了从视觉令牌到压缩令牌的压缩蒸馏。

VoCo-LLaMA的压缩过程可以战略性地通过调整注意力掩码优雅地实现。具体地,将文本令牌和视觉令牌之间注意力权重设置为False。 M ∈ R ( m + n − 1 ) × ( m + n − 1 ) \mathbf{M}\in \mathbb{R}^{(m+n-1)\times (m+n-1)} M∈R(m+n−1)×(m+n−1) 为注意力掩码。定义调整后注意力掩码为:

M i j = { True, if i ∈ T and j ∈ V o C o , False, if i ∈ T and j ∈ V , True, otherwise. M_{i j}=\left\{\begin{array}{ll} \text { True, } & \text { if } i \in \mathcal{T} \text { and } j \in V o C o, \\ \text { False, } & \text { if } i \in \mathcal{T} \text { and } j \in \mathcal{V}, \\ \text { True, } & \text { otherwise. } \end{array}\right. Mij=⎩ ⎨ ⎧ True, False, True, if i∈T and j∈VoCo, if i∈T and j∈V, otherwise.

值得注意的是本文对注意力掩码的修改是基于仅解码器模型(如LLaVA)中casual注意力掩码实现,该模型被初始化为左下三角矩阵。实践中,VoCo-LLaMA可以在标准的监督微调范式下进行有效训练,利用VLM中现成的大量图像文本数据。此外,VoCo令牌可以紧凑地表示为一组Transformer激活,允许缓存它们以提高推理效率。

VoCo-LLaMA使得大语言模型能够学习视觉令牌的压缩过程 V o C o ( V ) VoCo(\mathcal{V}) VoCo(V),通过学习理解压缩的VoCo令牌,例如学习分布 p V o C o ( y ∣ V o C o ( V ) , T ) p_{VoCo}(y|VoCo(\mathcal{V}),\mathcal{T}) pVoCo(y∣VoCo(V),T)。优化目标可以描述为:
L ( V L M o , V o C o ) = E V , T [ D K L ( p V L M o ( y ∣ V , T ) ) ∣ ∣ p V o C o ( y ∣ V o C o ( V ) , T ) ) ] L(VLM_{o},VoCo)=E_{\mathcal{V},\mathcal{T}}[D_{KL}(p_{VLM_{o}}(y|\mathcal{V},\mathcal{T}))||p_{VoCo}(y|VoCo(\mathcal{V}),\mathcal{T}))] L(VLMo,VoCo)=EV,T[DKL(pVLMo(y∣V,T))∣∣pVoCo(y∣VoCo(V),T))]

另外本文的设计还提供了一个额外的优势:VoCo令牌在压缩过程中专门与输入文本交互,在视觉与文本模态之间建立无缝通道。这使得本文算法能够毫不费力地将压缩视觉信息与文本模态对齐,无需专门的文本视觉感知多模态对齐模块设计

相关推荐
业精于勤的牙9 小时前
浅谈:算法中的斐波那契数(六)
人工智能·算法
七夜zippoe9 小时前
NPU存储体系 数据在芯片内的旅程与分层优化策略
人工智能·昇腾·cann·ascend c·l1 buffer
IT_陈寒9 小时前
JavaScript性能优化:5个V8引擎隐藏技巧让你的代码提速50%
前端·人工智能·后端
AI架构师易筋9 小时前
模型上下文协议(MCP)完全指南:从AI代理痛点到实战开发
人工智能·microsoft·语言模型·llm·mcp
Robot侠9 小时前
视觉语言导航从入门到精通(二)
开发语言·人工智能·python·llm·vln
qdprobot9 小时前
齐护AiTall pro ESP32S3 小智AI对话 MQTT MCP 开发板Mixly Scratch Steam图形化编程创客教育
人工智能·mqtt·scratch·mixly·mcp·小智ai·齐护机器人aitall pro
程砚成9 小时前
美容行业的未来:当科技照进美与健康
大数据·人工智能
AI科技星9 小时前
质量定义方程的物理数学融合与求导验证
数据结构·人工智能·算法·机器学习·重构
javaforever_cn9 小时前
AI Agent 智能体与MCP开发实践-基于Qwen3大模型-王晓华 案例实战 第二章
人工智能
deephub9 小时前
llama.cpp Server 引入路由模式:多模型热切换与进程隔离机制详解
人工智能·python·深度学习·llama