什么是召回(Recall)

在 RAG、检索系统、搜索引擎这类场景中,召回(Recall) 是指从全量数据中找出所有与用户问题 "可能相关" 的候选结果的过程 ,它是检索流程的第一步 ,核心目标是 "不漏掉任何潜在相关的内容"

你可以把检索流程拆成两步:

  1. 召回 :大海捞针,把所有沾边的内容都捞出来(追求);
  2. 排序 :去粗取精,把捞出来的内容按相关性高低排好序(追求)。

一、召回的核心特点

  1. 目标是 "高召回率",而非 "高精度" 召回阶段不纠结 "这条内容到底有多相关",只判断 "是否可能相关",所以会返回一个数量较多的候选集。比如用户问 "Spark 宽依赖",召回阶段会把所有包含 "Spark""宽依赖""窄依赖""依赖关系" 的文档片段都找出来,哪怕有些片段只是提了一句 "宽依赖是 Spark 中的概念",也会被纳入候选集。

  2. 速度优先,算法简单 召回要处理全量数据(比如百万级向量),所以必须用高效的算法,常见的召回策略有:

    • 向量召回:基于向量相似度的近似检索(如 Milvus 的 HNSW、IVF 算法),这是 RAG 中最常用的方式;
    • 关键词召回:基于关键词匹配(如 Elasticsearch 的倒排索引);
    • 混合召回:向量 + 关键词结合,兼顾语义和字面匹配。

二、召回率(Recall Rate):衡量召回效果的核心指标

召回率是一个量化指标,公式很简单:

召回率=全量数据中的相关结果总数检索到的相关结果数​×100%

  • 理想情况:召回率 = 100% → 所有相关内容都被找出来了,没有遗漏;
  • 实际情况:召回率不可能 100%(比如数据有噪声、算法有局限),我们需要在 "召回率" 和 "效率" 之间做平衡。

举个例子:全量数据里有 10 条和 "Spark 宽依赖" 相关的文档片段,召回阶段找出了 8 条 → 召回率 = 8/10 = 80%。

三、召回与之前提到的 "粗排、精排" 的关系

你可以把整个检索流程串起来,理解三者的分工:

复制代码
用户提问 → 问题处理(向量化/关键词提取) → 召回(从全量数据捞候选集,比如 200 条) → 粗排(快速过滤,缩到 50 条) → 精排(精准排序,选 Top-5) → 传给大模型
阶段 核心任务 目标 数据量变化
召回 从全量数据捞潜在相关内容 不漏掉相关结果 全量 → 几百条候选集
粗排 对候选集快速筛选 初步去噪 几百条 → 几十条
精排 对筛选后的数据精准排序 选出最相关结果 几十条 → 几条最终结果

四、RAG 中召回的实操关键点

  1. 召回数量(Top-N)的设置

    • 召回数量不能太少(比如只召回 10 条):容易漏掉相关内容,降低召回率;
    • 召回数量不能太多(比如召回 1000 条):会增加后续粗排、精排的计算量,拖慢整体速度;
    • 经验值:海量数据场景下,召回数量设为 最终需要结果数的 20~50 倍(比如最终要 5 条,召回 100~250 条)。
  2. 召回策略的选择

    • 语义相关为主:用向量召回(比如 Milvus 的 HNSW 索引);
    • 字面关键词相关为主:用关键词召回(比如 Elasticsearch);
    • 兼顾语义和字面:用混合召回(比如 Milvus + Elasticsearch 联动)。

五、举个代码例子(Milvus 中的召回操作)

复制代码
from pymilvus import Collection
from langchain_openai import OpenAIEmbeddings

# 1. 加载 Milvus 集合(表)
collection = Collection("tech_docs")
collection.load()

# 2. 问题向量化
embeddings = OpenAIEmbeddings()
query_vector = embeddings.embed_query("Spark 宽依赖和窄依赖的区别")

# 3. 召回:用 HNSW 索引捞 200 条候选集(这一步就是召回)
search_params = {"metric_type": "COSINE", "params": {"nprobe": 10}}
results = collection.search(
    data=[query_vector],
    anns_field="embedding",
    param=search_params,
    limit=200,  # 召回数量 Top-200
    output_fields=["content", "source"]
)

# 4. 后续:把这 200 条传给粗排、精排处理

关键总结

  • 召回的本质 :从全量数据中 "海选" 潜在相关内容,追求 ,不追求
  • 召回率:衡量 "漏没漏相关内容" 的指标,越高越好,但要兼顾效率;
  • 和排序的关系:召回是排序的基础,先召回再排序,才是完整的检索流程。
相关推荐
博谷3 小时前
GEO优化服务商深度横评:AI原生全栈方案如何定义下一代搜索
ai
数字游民95274 小时前
推荐一个自带流量加成的小程序接口
人工智能·ai·小程序
计算机网恋4 小时前
本地部署DeepSeek
ai
明洞日记4 小时前
【CUDA手册004】一个典型算子的 CUDA 化完整流程
c++·图像处理·算法·ai·图形渲染·gpu·cuda
CoderJia程序员甲8 小时前
GitHub 热榜项目 - 日榜(20260116)
ai·开源·大模型·github·ai教程
跨境日记的老周8 小时前
GEO优化全景解析:AI搜索重塑品牌可见度底层逻辑与实战指南
ai
GHL2842710908 小时前
用lingma合并俩个excel
ai·excel
2301_7873284910 小时前
48.实战:智能机器人
ai·机器人
带刺的坐椅10 小时前
带来 Multi Agent 开发,OpenSolon v3.8.3 发布
java·ai·agent·solon·mcp