构建智能问答或RAG系统:三个关键组件

"大模型"通常指的是大语言模型(Large Language Model, LLM) ‌,而"大预言、嵌入模型、重排序模型"并不是大模型本身的三种类型,而是‌在构建智能问答或检索增强生成(RAG)系统时,常协同使用的三个关键组件‌。它们各自承担不同角色,共同提升系统整体性能。

三个模型的角色分工

  • ‌**大语言模型(LLM)**‌

    • 角色‌:最终的"回答者"
    • 核心作用‌:理解用户问题,整合检索到的信息,生成自然语言答案
    • 关键词‌:生成、对话、理解
  • ‌**嵌入模型(Embedding Model)**‌

    • 角色‌:语义"翻译官"
    • 核心作用‌:将文本转换为高维向量,用于在向量数据库中快速检索语义相似的内容
    • 关键词‌:向量化、检索、匹配
  • ‌**重排序模型(Reranker)**‌

    • 角色‌:检索结果"质检员"
    • 核心作用‌:对初步检索出的候选结果进行精细化打分与排序,提升相关性
    • 关键词‌:排序、打分、筛选

为什么需要这三个模型协同?

  1. 效率与精度平衡

    • 嵌入模型使用双编码器(bi-encoder)快速召回 Top 20--50 个候选文档,速度快但精度有限。
    • 重排序模型使用交叉编码器(cross-encoder)对这些候选进行细粒度交互建模,显著提升排序准确性(通常提升 15--25 个百分点)‌‌。
  2. 分工明确,各司其职

    • LLM 专注于生成高质量回答,不承担检索任务;
    • 嵌入模型专注语义表示;
    • 重排序模型专注精排优化。
      这种架构避免了"一个模型做所有事"的性能瓶颈‌‌。
  3. 支持 RAG(检索增强生成)系统

    在 RAG 流程中:

    1. 用户提问 →
    2. 嵌入模型检索相关文档 →
    3. 重排序模型精排 →
    4. LLM 基于精选上下文生成答案
      三者缺一不可,共同决定最终输出质量‌‌。

说明

  • "大预言模型"应为"大语言模型"(LLM),是中文语境下的常见误译。
  • 这三个模型并非大模型的"内部组成部分",而是‌外部协同的系统组件‌。大模型本身主要包含嵌入层(Embedding Layer)、权重(Weights)和偏置(Biases)等参数结构‌‌。
  • 嵌入模型和重排序模型的权重通常不公开,因其高度定制化且涉及商业机密‌‌。
相关推荐
小马过河R4 小时前
RAG检索优化策略:系统性四层框架解析
人工智能·python·算法·ai·llm·rag·问答
数据智能老司机5 小时前
大语言模型:那些硬核难题——面向安全性的 LLM 评估
llm
数据智能老司机6 小时前
大语言模型:那些硬核难题——第一性原理:在开始用 LLM 构建之前,我们需要考虑什么
llm
swipe7 小时前
Agentic RAG:用 LangGraph 构建会路由、会纠错、会收敛的闭环 RAG
后端·langchain·llm
冬奇Lab9 小时前
RAG 系列(十八):Conversational RAG——多轮对话中的代词陷阱
人工智能·llm
knight_9___9 小时前
大模型project面试5
人工智能·python·深度学习·面试·agent·rag·mcp
nujnewnehc9 小时前
第一次接触 agent 概念分享
人工智能·llm·agent
knight_9___9 小时前
大模型project面试6
人工智能·python·agent·rag·mcp
Wilber的技术分享10 小时前
【大模型面试八股 2】Function Call、MCP、Skill的区别
人工智能·面试·职场和发展·大模型·llm·agent·智能体开发