Graph RAG论文阅读笔记说明:利用检索增强生成(RAG)从外部知识源检索相关信息,使得大型语言模型(LLMs)能够针对私有的或之前未见过(即不在训练集中)的文档集回答问题。然而,RAG在针对整个文本语料库的全局性问题上会失败,例如问题:“数据集中的主要主题是什么?”。因为这本质上是一个查询聚焦的汇总(query-focused summarization, QFS)任务,而不是一个明确的检索任务。同时,以前的QFS方法(译注:所能处理的文本量较小),无法扩展到通常RAG所能处理的文本数量级。为了结合这些存在显著差别的方法的优势,