在模块化RAG(Retrieval-Augmented Generation)设计中,各种操作模式通过模块化的方式协同工作,形成了一个名为 RAG流 的工作流程。这个 RAG流 可以被视为由多个子函数组成的图形结构。通过控制逻辑,这些子函数会按预定的顺序执行,同时也能根据需求进行条件判断、分支或循环。
这种模块化特性让RAG系统能够灵活应对不同的应用场景,并且提升了系统的设计效率和扩展性。在分析现有的RAG方法时,我们可以看到,模块化的结构使得RAG系统可以在处理复杂任务时更具适应性。
本章将详细介绍几种常见的 RAG模式,包括:
- 线性模式:在这个模式下,各个模块按顺序依次执行,每个步骤的输出作为下一个步骤的输入,适用于顺序性较强的任务。
- 条件模式:根据特定的条件,选择性地执行不同的模块操作。这个模式能够处理具有分支或选择性的任务。
- 分支模式:与条件模式类似,但它更多地用于任务中涉及多个并行处理路径的场景。
- 循环模式:当某些操作需要重复执行时,循环模式便会派上用场。它适合那些需要反复处理相似任务的应用。
通过这些模式的结合,RAG系统不仅能够高效地处理多样化的任务需求,还可以在面对复杂任务时保持灵活性与扩展性。
1 线性模式
在 RAG系统 中,线性模式 是最简单且最常见的工作流模式。其核心流程包括几个主要模块:预检索(Pre-Retrieval) 、检索 、后检索(Post-Retrieval) 和 生成模块 。这些模块按顺序依次进行处理,如图示。值得注意的是,当预检索和检索后处理模块缺失时,线性模式会简化为一种称为 朴素检索增强生成(Naive RAG) 的基本范式,仅包含检索和生成过程。

为了提升生成的质量,常见的线性RAG流通过以下几个步骤优化:
- 预检索阶段:这一阶段引入了查询变换模块,通常采用查询重写或者隐式文档扩展(HyDE)等操作符。通过这些变换,查询能够更好地适应检索需求,提高检索的相关性。
- 检索阶段:在这一阶段,系统通过检索工具(如BM25)从外部知识库中获取与重写后的查询高度相关的文档或上下文信息。
- 后检索阶段:检索结果进一步优化,通常通过排序模块对检索的结果进行调整,使得最终选出的文档最能满足生成需求。
- 生成模块:最终,通过生成模型(例如GPT或T5等)处理优化后的文档上下文,产生高质量的回答或生成内容。
一个典型的线性RAG流模式是:"重写-检索-阅读(Rewrite-Retrieve-Read,RRR) "方法。该方法在预检索阶段引入了一个查询重写模块。这个模块基于 T5-large 模型的微调版本,并通过强化学习框架进行优化,将查询重写过程建模为 马尔可夫决策过程(MDP)。
在这个过程中,查询重写模块的输出质量被视为奖励信号,强化学习算法通过策略梯度方法来调整和优化生成的查询,从而确保查询更符合检索任务的需求。这种方式提升了检索的效率,并进一步改善了生成结果的效果。
在检索阶段,RRR方法 使用了稀疏编码模型(如BM25)进行检索,从外部知识库中获取与重写后的查询相关的文档,进一步增强了系统生成内容的准确性和可靠性。
通过这样的设计,线性模式的RAG流不仅提高了生成质量,还能在实际应用中实现高效的知识提取和生成。
2 条件模式
条件模式 是一种灵活的 RAG流模式 ,其核心特点是在不同的条件下选择不同的工作流,以便针对特定场景进行优化。这种模式的关键在于一个 路由模块(Routing Module),该模块根据输入问题的特性动态选择接下来的处理流程,如下图所示。

具体来说,当系统接收到不同类型的问题时,它会根据预设的条件或规则决定如何处理。例如,对于涉及严肃议题、政治话题或娱乐内容等不同类型的问题,系统会自动切换到不同的处理流程。这种动态路由机制显著提升了系统处理多样化任务的能力,使得系统能够灵活应对各种复杂场景。
条件模式的分支流 主要体现在以下几个方面:
- 检索来源:系统会根据问题的性质选择不同的检索来源。例如,对于严肃问题,系统可能会选择更可靠的、权威性的来源,而对于娱乐性问题,则可能选择更多元或创意性的资料。
- 流程选择:针对不同任务的需求,条件模式可能会调整流程的细节,控制模块的顺序、执行的操作,甚至是否进行一些后处理。
- 模型配置:不同类型的问题可能需要不同的模型配置。比如,严肃问题可能使用更精确、保守的模型,而娱乐类问题则可能使用更具创意性和生成自由度的模型。
- 提示设计:根据任务的性质,系统的提示设计(Prompt Design)也会有所不同。对于严肃问题,提示可能会更为规范和严格,而对于娱乐类问题,提示可能会更具开放性和灵活性。
举个例子,对于严肃性较高的问题(如法律、健康、政治等),系统可能会选择更加可靠的检索来源,并对生成的内容设置严格的约束,确保信息的准确性和权威性。而对于娱乐类的问题(如电影、游戏、搞笑等),系统则可以容忍更多的创意和不拘一格的生成,提供富有娱乐性和趣味性的回答。
通过这种方式,条件模式 能够根据任务的需求动态调整 RAG 各个组件,确保生成的回答既符合场景需求,又保持高相关性和准确性。这种灵活性使得 条件模式 在处理多样化、复杂性高的任务时具有显著的优势,能够有效提升系统的适应能力和输出质量。
3 分支模式
分支模式 是 RAG(Retrieval-Augmented Generation) 系统中一种增加结果多样性和鲁棒性的重要设计方式。它通过并行运行多个分支,来生成多样化的结果,从而提升系统的性能和准确性。
具体来说,分支模式 在某个模块中生成多个并行的分支,每个分支可以独立执行相同或不同的 RAG流程 。这些分支通常由多个处理模块组成,每个模块生成各自的结果。然后,这些分支的结果会通过一个 聚合函数 合并成一个中间输出结果。值得注意的是,合并后的结果不一定意味着流程的结束,它们还可以传递到后续模块(如验证模块)进行进一步处理。整体流程从生成多个分支、独立处理、到结果聚合,形成了一个完整的流水线。
与条件模式 不同,分支模式 的特点在于同时并行运行多个分支,而不是从多个选项中选择一个分支。这使得分支模式能够同时从多个角度进行处理,生成更加丰富和多样化的结果。
分支模式的结构类型
根据任务需求,分支模式 可以设计为不同的结构,通常分为两种类型:
-
预检索分支模式(Pre-Retrieval Branching)
这种模式通过生成多个子查询并并行检索,旨在提高检索的全面性和生成结果的多样性。具体流程是,首先通过查询扩展模块将初始查询扩展为多个子查询。每个子查询然后通过检索模块获取相关文档,形成文档集合。这些文档和相应的子查询一同送入生成模块,产生多个答案集合。最终,所有生成的答案通过融合模块进行整合,形成最终的结果。
这种模式的优势在于,它能够从多个角度挖掘潜在信息,增强生成结果的覆盖度和准确性。它特别适用于需要广泛搜索和多角度生成的任务。

-
后检索分支模式(Post-Retrieval Branching)
该模式从单一查询开始,首先通过检索模块获取多个文档块。然后,每个文档块被独立送入生成模块进行处理,生成对应的结果集合。这些结果最终会通过合并模块整合,形成最终输出。
与预检索分支模式不同,后检索分支模式的特点在于,它通过单一查询进行检索,而并行生成则集中在对不同文档块的独立处理上。这个模式非常适合那些需要从同一查询结果中挖掘多角度信息的场景,能更好地利用检索到的内容,提升生成结果的多样性和质量。

分支模式的优势
通过并行执行多个分支,分支模式能够从多个角度生成和整合信息,极大地提升了系统的生成能力和结果质量。它特别适合于处理复杂场景和多任务需求,可以为不同的应用场景提供更加多样和精准的答案。因此,分支模式在 多任务处理 和 复杂场景 中具有显著的优势。
4 循环模式
循环模式 是 RAG(Retrieval-Augmented Generation) 系统中一种重要的设计方式,其核心特点是检索与生成步骤之间的相互依赖性。通过引入一个 调度模块 来控制流程,循环模式确保系统可以根据任务需求在不同模块之间重复执行某些操作。这使得循环模式可以不断优化流程中的步骤,提升任务的最终效果。
循环模式的基本原理
循环模式可以抽象为一个 有向图 ,图中的节点代表系统中的各个模块,边则表示模块之间的控制流或数据流。当某个模块的输出能够返回到之前的模块时,系统就形成了一个 循环结构。这样的设计让系统可以根据需要在某些步骤之间来回循环,以不断优化结果,直到达到理想的效果。
判断模块
在循环模式中,判断模块(Judge Module) 起到了关键作用。它用于决定系统是否需要返回到前一个模块,或者是否继续向下执行。例如,在每一次生成或检索之后,判断模块可以根据当前的输出结果、历史数据、查询和检索到的文档来决定是否继续迭代。如果决定返回,流程就会进行循环;如果决定不返回,流程则继续向前执行。这样,系统能够根据当前任务的情况动态调整整个流程。
循环模式的类型
循环模式可以进一步细分为三种类型:迭代型循环模式 、递归型循环模式 和 自适应型(主动型)循环模式。每种模式都适用于不同的场景,提供了灵活的处理方式。
-
迭代型循环模式
迭代型循环模式通过多次执行检索和生成操作,在每次迭代中逐步优化结果。如下图所示,在每一步迭代中,系统根据当前的查询和之前的输出结果来检索相关文档,然后使用这些文档生成新的输出。迭代过程通常会设置一个 最大迭代次数的限制,以避免出现无限循环。在每次迭代后,判断模块会根据当前的生成结果、历史输出、查询和检索到的文档来决定是否继续迭代。迭代型模式非常适合那些需要逐步收集信息并动态调整的任务,能够逐渐完善对复杂问题的回答。

-
递归型循环模式
递归型循环模式则是一种具有明显依赖性和层次性的检索方式,如图所示。每一步操作都依赖于前一步的输出,并通过不断深化检索过程,逐步获取更深入的信息。递归型模式通常遵循类似 树状结构 的模式,每次检索会基于改写后的查询进一步展开,以精确定位所需的知识。递归型检索具有明确的 退出机制,以确保在达到终止条件时流程停止,从而避免无限递归。此模式适用于需要分步推理或逐层分析的任务,能够深入挖掘相关信息并生成高质量的回答。

-
自适应型(主动型)循环模式
自适应型循环模式是一种超越传统被动检索的方式,得益于大语言模型强大的能力。如图9.16所示,自适应型模式的核心思想是通过智能体的方式动态调整检索流程,主动决定何时进行检索,何时终止流程并生成最终结果。这种模式与传统的固定流程不同,具有更高的 灵活性 和 智能性 。它能够实时根据任务的需求调整策略,判断最佳的执行路径。自适应型检索通常通过两种方法来进一步细分:一是 基于提示 的方法,通过设计动态提示来引导模型的检索;二是 基于指令微调 的方法,通过微调模型来实现更精准的检索控制。自适应型模式特别适用于复杂任务或动态信息需求的场景,能够提升检索效率和生成质量。

循环模式的优势
通过引入循环结构,循环模式 能够让系统在检索与生成的过程中不断优化,逐步提升任务的完成效果。无论是 迭代型 的逐步改进,还是 递归型 的深度推理,或是 自适应型 的智能控制,循环模式都为 RAG 系统提供了强大的灵活性和处理能力,能够在面对复杂问题时进行更精确的调整和优化,从而提升生成结果的质量和准确性。
想入门 AI 大模型却找不到清晰方向?备考大厂 AI 岗还在四处搜集零散资料?别再浪费时间啦!2025 年 AI 大模型全套学习资料已整理完毕,从学习路线到面试真题,从工具教程到行业报告,一站式覆盖你的所有需求,现在全部免费分享!
👇👇扫码免费领取全部内容👇👇

一、学习必备:100+本大模型电子书+26 份行业报告 + 600+ 套技术PPT,帮你看透 AI 趋势
想了解大模型的行业动态、商业落地案例?大模型电子书?这份资料帮你站在 "行业高度" 学 AI:
1. 100+本大模型方向电子书

2. 26 份行业研究报告:覆盖多领域实践与趋势
报告包含阿里、DeepSeek 等权威机构发布的核心内容,涵盖:

- 职业趋势:《AI + 职业趋势报告》《中国 AI 人才粮仓模型解析》;
- 商业落地:《生成式 AI 商业落地白皮书》《AI Agent 应用落地技术白皮书》;
- 领域细分:《AGI 在金融领域的应用报告》《AI GC 实践案例集》;
- 行业监测:《2024 年中国大模型季度监测报告》《2025 年中国技术市场发展趋势》。
3. 600+套技术大会 PPT:听行业大咖讲实战
PPT 整理自 2024-2025 年热门技术大会,包含百度、腾讯、字节等企业的一线实践:

- 安全方向:《端侧大模型的安全建设》《大模型驱动安全升级(腾讯代码安全实践)》;
- 产品与创新:《大模型产品如何创新与创收》《AI 时代的新范式:构建 AI 产品》;
- 多模态与 Agent:《Step-Video 开源模型(视频生成进展)》《Agentic RAG 的现在与未来》;
- 工程落地:《从原型到生产:AgentOps 加速字节 AI 应用落地》《智能代码助手 CodeFuse 的架构设计》。
二、求职必看:大厂 AI 岗面试 "弹药库",300 + 真题 + 107 道面经直接抱走
想冲字节、腾讯、阿里、蔚来等大厂 AI 岗?这份面试资料帮你提前 "押题",拒绝临场慌!

1. 107 道大厂面经:覆盖 Prompt、RAG、大模型应用工程师等热门岗位
面经整理自 2021-2025 年真实面试场景,包含 TPlink、字节、腾讯、蔚来、虾皮、中兴、科大讯飞、京东等企业的高频考题,每道题都附带思路解析:

2. 102 道 AI 大模型真题:直击大模型核心考点
针对大模型专属考题,从概念到实践全面覆盖,帮你理清底层逻辑:

3. 97 道 LLMs 真题:聚焦大型语言模型高频问题
专门拆解 LLMs 的核心痛点与解决方案,比如让很多人头疼的 "复读机问题":
三、路线必明: AI 大模型学习路线图,1 张图理清核心内容
刚接触 AI 大模型,不知道该从哪学起?这份「AI大模型 学习路线图」直接帮你划重点,不用再盲目摸索!

路线图涵盖 5 大核心板块,从基础到进阶层层递进:一步步带你从入门到进阶,从理论到实战。

L1阶段:启航篇丨极速破界AI新时代
L1阶段:了解大模型的基础知识,以及大模型在各个行业的应用和分析,学习理解大模型的核心原理、关键技术以及大模型应用场景。

L2阶段:攻坚篇丨RAG开发实战工坊
L2阶段:AI大模型RAG应用开发工程,主要学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。

L3阶段:跃迁篇丨Agent智能体架构设计
L3阶段:大模型Agent应用架构进阶实现,主要学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造Agent智能体。

L4阶段:精进篇丨模型微调与私有化部署
L4阶段:大模型的微调和私有化部署,更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调,并通过Ollama、vLLM等推理部署框架,实现模型的快速部署。

L5阶段:专题集丨特训篇 【录播课】
四、资料领取:全套内容免费抱走,学 AI 不用再找第二份
不管你是 0 基础想入门 AI 大模型,还是有基础想冲刺大厂、了解行业趋势,这份资料都能满足你!
现在只需按照提示操作,就能免费领取:
👇👇扫码免费领取全部内容👇👇

2025 年想抓住 AI 大模型的风口?别犹豫,这份免费资料就是你的 "起跑线"!

