什么是召回(Recall)

在 RAG、检索系统、搜索引擎这类场景中,召回(Recall) 是指从全量数据中找出所有与用户问题 "可能相关" 的候选结果的过程 ,它是检索流程的第一步 ,核心目标是 "不漏掉任何潜在相关的内容"

你可以把检索流程拆成两步:

  1. 召回 :大海捞针,把所有沾边的内容都捞出来(追求);
  2. 排序 :去粗取精,把捞出来的内容按相关性高低排好序(追求)。

一、召回的核心特点

  1. 目标是 "高召回率",而非 "高精度" 召回阶段不纠结 "这条内容到底有多相关",只判断 "是否可能相关",所以会返回一个数量较多的候选集。比如用户问 "Spark 宽依赖",召回阶段会把所有包含 "Spark""宽依赖""窄依赖""依赖关系" 的文档片段都找出来,哪怕有些片段只是提了一句 "宽依赖是 Spark 中的概念",也会被纳入候选集。

  2. 速度优先,算法简单 召回要处理全量数据(比如百万级向量),所以必须用高效的算法,常见的召回策略有:

    • 向量召回:基于向量相似度的近似检索(如 Milvus 的 HNSW、IVF 算法),这是 RAG 中最常用的方式;
    • 关键词召回:基于关键词匹配(如 Elasticsearch 的倒排索引);
    • 混合召回:向量 + 关键词结合,兼顾语义和字面匹配。

二、召回率(Recall Rate):衡量召回效果的核心指标

召回率是一个量化指标,公式很简单:

召回率=全量数据中的相关结果总数检索到的相关结果数​×100%

  • 理想情况:召回率 = 100% → 所有相关内容都被找出来了,没有遗漏;
  • 实际情况:召回率不可能 100%(比如数据有噪声、算法有局限),我们需要在 "召回率" 和 "效率" 之间做平衡。

举个例子:全量数据里有 10 条和 "Spark 宽依赖" 相关的文档片段,召回阶段找出了 8 条 → 召回率 = 8/10 = 80%。

三、召回与之前提到的 "粗排、精排" 的关系

你可以把整个检索流程串起来,理解三者的分工:

复制代码
用户提问 → 问题处理(向量化/关键词提取) → 召回(从全量数据捞候选集,比如 200 条) → 粗排(快速过滤,缩到 50 条) → 精排(精准排序,选 Top-5) → 传给大模型
阶段 核心任务 目标 数据量变化
召回 从全量数据捞潜在相关内容 不漏掉相关结果 全量 → 几百条候选集
粗排 对候选集快速筛选 初步去噪 几百条 → 几十条
精排 对筛选后的数据精准排序 选出最相关结果 几十条 → 几条最终结果

四、RAG 中召回的实操关键点

  1. 召回数量(Top-N)的设置

    • 召回数量不能太少(比如只召回 10 条):容易漏掉相关内容,降低召回率;
    • 召回数量不能太多(比如召回 1000 条):会增加后续粗排、精排的计算量,拖慢整体速度;
    • 经验值:海量数据场景下,召回数量设为 最终需要结果数的 20~50 倍(比如最终要 5 条,召回 100~250 条)。
  2. 召回策略的选择

    • 语义相关为主:用向量召回(比如 Milvus 的 HNSW 索引);
    • 字面关键词相关为主:用关键词召回(比如 Elasticsearch);
    • 兼顾语义和字面:用混合召回(比如 Milvus + Elasticsearch 联动)。

五、举个代码例子(Milvus 中的召回操作)

复制代码
from pymilvus import Collection
from langchain_openai import OpenAIEmbeddings

# 1. 加载 Milvus 集合(表)
collection = Collection("tech_docs")
collection.load()

# 2. 问题向量化
embeddings = OpenAIEmbeddings()
query_vector = embeddings.embed_query("Spark 宽依赖和窄依赖的区别")

# 3. 召回:用 HNSW 索引捞 200 条候选集(这一步就是召回)
search_params = {"metric_type": "COSINE", "params": {"nprobe": 10}}
results = collection.search(
    data=[query_vector],
    anns_field="embedding",
    param=search_params,
    limit=200,  # 召回数量 Top-200
    output_fields=["content", "source"]
)

# 4. 后续:把这 200 条传给粗排、精排处理

关键总结

  • 召回的本质 :从全量数据中 "海选" 潜在相关内容,追求 ,不追求
  • 召回率:衡量 "漏没漏相关内容" 的指标,越高越好,但要兼顾效率;
  • 和排序的关系:召回是排序的基础,先召回再排序,才是完整的检索流程。
相关推荐
慢半拍iii3 小时前
从零搭建CNN:如何高效调用ops-nn算子库
人工智能·神经网络·ai·cnn·cann
空白诗4 小时前
CANN ops-nn 算子解读:AIGC 风格迁移中的 BatchNorm 与 InstanceNorm 实现
人工智能·ai
说实话起个名字真难啊6 小时前
用docker来安装openclaw
docker·ai·容器
金融RPA机器人丨实在智能6 小时前
Android Studio开发App项目进入AI深水区:实在智能Agent引领无代码交互革命
android·人工智能·ai·android studio
乂爻yiyao7 小时前
Vibe Coding 工程化实践
人工智能·ai
慢半拍iii7 小时前
ops-nn算子库深度解析:昇腾神经网络计算的基础
人工智能·深度学习·神经网络·ai·cann
Elastic 中国社区官方博客8 小时前
Elasticsearch:Workflows 介绍 - 9.3
大数据·数据库·人工智能·elasticsearch·ai·全文检索
组合缺一8 小时前
Solon AI (Java) v3.9 正式发布:全能 Skill 爆发,Agent 协作更专业!仍然支持 java8!
java·人工智能·ai·llm·agent·solon·mcp
Ekehlaft8 小时前
这款国产 AI,让 Python 小白也能玩转编程
开发语言·人工智能·python·ai·aipy
慢半拍iii8 小时前
对比分析:ops-nn与传统深度学习框架算子的差异
人工智能·深度学习·ai·cann