再看开源多模态RAG的视觉文档(OCR-Free)检索增强生成方案-VDocRAG

前期几个工作提到,基于OCR的文档解析+RAG的方式进行知识库问答,受限文档结构复杂多样,各个环节的解析泛化能力较差,无法完美的对文档进行解析。因此出现了一些基于多模态大模型的RAG方案。如下:

下面再来看一个新的RAG框架VDocRAG,用于解决视觉文档问答问题。

视觉文档问答概述

OpenDocVQA任务的目标是给定一个文档图像集合和一个问题,通过找到相关的文档图像来输出答案。任务分为两个阶段:

  1. 视觉文档检索(Visual Document Retrieval)

    • 输入:一个查询问题 Q Q Q 和一个文档图像集合 I \mathcal{I} I。
    • 输出:从集合中检索出与问题相关的 k k k 个文档图像 I ^ \hat{\mathcal{I}} I^,其中 k ≪ N k \ll N k≪N(即 k k k 远小于文档集合的大小)。
    • 目标:通过检索相关的文档图像来帮助生成答案。
  2. 文档视觉问答(DocumentVQA)

    • 输入:查询问题 Q Q Q 和检索到的文档图像 I ^ \hat{\mathcal{I}} I^。
    • 输出:生成一个答案 A A A。
    • 目标:利用检索到的文档图像来生成准确的答案。

方法架构

VDocRAG由两个主要组件组成:VDocRetriever和VDocGenerator,下面来看看这两个组件。

VDocRetriever(检索器)

VDocRetriever基于LVLM的双编码器架构,用于检索与查询问题相关的文档图像。

  1. 动态高分辨率图像编码 :使用动态裁剪将高分辨率图像分割成较小的patch,每个patch大小为 336 × 336 336 \times 336 336×336 像素。将这些patch作为单独的输入传递给图像编码器,并将其转换为视觉文档特征 z d z_d zd。

  2. 编码过程 :在VDocRetriever中,问题和视觉文档特征被独立编码。在问题的末尾添加一个 ⟨ E O S ⟩ \langle EOS \rangle ⟨EOS⟩(End of Sequence)标记,并将其与视觉文档特征一起输入到LVLM中。通过取最后一个 ⟨ E O S ⟩ \langle EOS \rangle ⟨EOS⟩ 向量来获得问题和视觉文档的嵌入 h q h_q hq 和 h d h_d hd。

  3. 相似度计算 :使用最大内积搜索计算问题和视觉文档嵌入之间的相似度分数:
    SIM ⁡ ( h q , h d ) = h q ⊤ h d ∥ h q ∥ ∥ h d ∥ \operatorname{SIM}(h_q, h_d) = \frac{h_q^{\top} h_d}{\|h_q\| \|h_d\|} SIM(hq,hd)=∥hq∥∥hd∥hq⊤hd

  4. 检索过程 :根据相似度分数检索与问题最相关的 k k k 个文档。

VDocGenerator(生成器)

VDocGenerator使用VDocRetriever检索到的文档图像来生成答案。

  1. 编码过程:编码检索结果后,将问题和编码后的结果连接起来,并将其输入到LVLM中。

  2. 生成过程:LVLM根据输入生成答案。

自监督预训练

预训练的目标是迁移 LVLM 强大的理解和生成能力,以促进其在视觉文档检索中的应用。为此,提出了两个新的自监督预训练任务,将整个图像表示压缩为输入图像末尾的 EOS 令牌。我们的预训练过程传递文档图像,并将其提取的 OCR 文本用作伪目标。完整的预训练目标定义为损失之和,如下所示。

通过检索进行表示压缩 (RCR)

使用对比学习任务通过检索与OCR文本相关的图像来压缩图像表示。构建正样本OCR文本-图像对,并使用InfoNCE损失函数计算对比损失:

L R C R = − log ⁡ exp ⁡ ( SIM ⁡ ( h o , h d + ) / τ ) ∑ i ∈ B exp ⁡ ( SIM ⁡ ( h o , h d i ) / τ ) \mathcal{L}{RCR} = -\log \frac{\exp(\operatorname{SIM}(h_o, h{d^{+}}) / \tau)}{\sum_{i \in \mathcal{B}} \exp(\operatorname{SIM}(h_o, h_{d_i}) / \tau)} LRCR=−log∑i∈Bexp(SIM(ho,hdi)/τ)exp(SIM(ho,hd+)/τ)

其中 τ \tau τ 是一个温度超参数, B \mathcal{B} B 表示批量大小。

通过生成进行表示压缩 (RCG)

使用自定义的注意力掩码矩阵来利用LVLM的生成能力。对图像标记的表示进行掩码,仅允许 ⟨ E O S ⟩ \langle EOS \rangle ⟨EOS⟩ 标记和前面的OCR标记的注意力。通过标准自回归过程获取图像标记的表示,并将它们压缩到 ⟨ E O S ⟩ \langle EOS \rangle ⟨EOS⟩ 标记中。定义损失函数:

其中 y i y_i yi 表示OCR的第 i i i 个标记。

实验表现

检索结果

VDocRetriever 在未见数据集 ChartQA 和 SlideVQA 上表现出卓越的零样本泛化能力,优于现成的文本检索器和最先进的视觉文档检索模型。

RAG 结果

即使所有模型都采用相同的初始化,VDocRAG 在 DocumentVQA 任务上的表现也明显优于闭卷 LLM 和基于文本的 RAG。

VDocRAG 在理解布局和可视化内容(例如表格、图表、图形和示意图)方面展现出显著的性能优势。这些发现凸显了将文档表示为图像对于提升 RAG 框架性能的关键作用。

参考文献:https://arxiv.org/abs/2504.09795,VDocRAG: Retrieval-Augmented Generation over Visually-Rich Documents

code:https://github.com/nttmdlab-nlp/VDocRAG

相关推荐
Panesle6 小时前
用一个大型语言模型(LLM)实现视觉与语言的融合: Liquid_V1_7B
人工智能·语言模型·自然语言处理·多模态
安替-AnTi7 小时前
Google Colab测试部署Qwen大模型,实现PDF转MD场景OCR 识别(支持单机环境)
pdf·ocr·多模态·qwen 2.5·图片转文本
小研学术2 天前
AI文生图工具推荐
人工智能·ai·文生图·多模态·deepseek·ai生图
何似在人间5752 天前
SpringAI+DeepSeek大模型应用开发——5 ChatPDF
java·大模型开发·rag·spring ai·chat pdf
TMDOG6664 天前
TMDOG——语言大模型进行意图分析驱动后端实践
语言模型·rag
Sherlock Ma4 天前
基于LightRAG进行本地RAG部署(包括单卡多卡本地模型部署、调用阿里云或DeepSeekAPI的部署方法、RAG使用方法)
人工智能·阿里云·大模型·aigc·检索增强·rag·deepseek
木亦汐丫6 天前
【大模型系列篇】深度研究智能体技术演进:从DeepResearch到DeepResearcher,如何重构AI研究范式
rag·智能体·grpo算法·深度研究·deepresearcher·deepresearch·端到端强化学习
沛沛老爹7 天前
RAG(检索增强生成)学习路径全解析:从入门到精通
学习·入门教程·rag·搜索增强生成·学习路径
小白跃升坊7 天前
让 AI 对接 MySQL 数据库实现快速问答对话
ai·大语言模型·rag·max kb·提示词模版