打破“关键词”牢笼:混合检索(全文+语义)重塑搜索体验的完整指南

传统关键词检索易陷入"词不达意"的困境,而语义检索虽能理解文本内涵,却可能丢失精确字面信息。混合检索(Hybrid Search)通过融合两者优势,实现"精准匹配+语义理解"的双重目标。本文将拆解全文检索与语义检索的得分机制,详解七种主流融合算法(从易到难),结合实战案例演示完整流程,为不同场景提供可落地的选型与实操方案,助力开发者搭建更智能的搜索系统。

一、引言:为什么混合检索是最优解?

想象一个常见场景:搜索"如何用 Go 语言连接 MySQL"。

  • 纯全文检索:聚焦"Go""MySQL""连接"等关键词,可能返回《Go 语言安装教程》(高频含"Go")、《MySQL 权限管理》(提及"连接"),快而不准,无法精准捕捉用户"连接数据库"的核心意图。
  • 纯语义检索:将查询转化为向量匹配语义相似内容,可能返回《Golang 操作 PostgreSQL 指南》(语义接近但数据库不符),懂意图却不够精确,遗漏关键专有名词匹配。

理想的搜索体验,需同时兼顾"关键词的精准性"与"语义的理解力"------这正是混合检索的核心价值,也是其成为当下搜索系统主流架构的原因。

二、两种检索的"计分逻辑":字面与语义的双重维度

混合检索的基础,是理解两类检索的得分机制。它们从不同维度评估"文档与查询的相关性",得分含义与范围差异显著。

2.1 全文检索:基于词频的字面匹配(TF-IDF / BM25)

全文检索是传统搜索的核心,依赖统计学方法评估关键词匹配度,不理解文本语义。

  • 核心逻辑:通过"词频(TF)"和"逆文档频率(IDF)"计算得分,关键词出现越频繁、在全局文档中越稀有,得分越高。
  • 得分特征:范围通常为 0~10(浮点数),数值越高代表字面匹配度越强。
  • 优劣势:速度极快、解释性强,能精准匹配专有名词;但无法处理同义词、歧义句,对语境不敏感。

2.2 语义检索:基于向量的内涵匹配(余弦相似度 / 欧氏距离)

依托大模型与向量数据库兴起,核心是将文本转化为高维向量,通过向量距离评估语义相关性。

  • 核心逻辑:文本语义越接近,向量在高维空间中的距离越近、夹角越小。
  • 得分特征:
    • 余弦相似度:范围 [-1, 1],1 表示语义完全一致,0 表示无关;
    • 欧氏距离:范围 [0, ∞),0 表示向量完全重合,数值越大语义差异越大。
  • 优劣势:能理解语境、处理同义词与模糊查询;但计算量更大,对精确关键词的匹配优先级低于全文检索。

三、核心挑战:得分归一化------让"不同单位"可比较

两类检索的得分存在"量纲差异",直接融合会导致一方权重被完全淹没。

示例:全文检索给文档 A 打 8 分(满分 10),语义检索给文档 A 打 0.85 分(满分 1),直接相加时全文得分的影响力占比超 90%,语义得分形同虚设。

解决方案:归一化(Normalization)

将两类得分映射到统一区间(通常为 [0, 1]),消除量纲差异,实现"公平竞争"。

  • 全文得分:采用线性归一化(如 8 分对应 0.8)、最大最小归一化等方式压缩至 [0, 1];
  • 语义得分:若为余弦相似度(已在 [0, 1] 区间)可直接使用,若为欧氏距离需转化为相似度后再归一化。

只有完成归一化,才能进入后续得分融合环节。

四、七种混合检索融合算法(从易到难,按需选型)

归一化后,需通过合理算法融合得分。以下七种算法覆盖不同复杂度与业务场景,附优劣分析与适用范围,便于快速决策。

4.1 线性加权融合(Linear Weighted Fusion)------ 入门首选

打破"关键词"牢笼:混合检索(全文+语义)重塑搜索体验的完整指南

摘要

传统关键词检索易陷入"词不达意"的困境,而语义检索虽能理解文本内涵,却可能丢失精确字面信息。混合检索(Hybrid Search)通过融合两者优势,实现"精准匹配+语义理解"的双重目标。本文将拆解全文检索与语义检索的得分机制,详解七种主流融合算法(从易到难),结合实战案例演示完整流程,为不同场景提供可落地的选型与实操方案,助力开发者搭建更智能的搜索系统。

一、引言:为什么混合检索是最优解?

想象一个常见场景:搜索"如何用 Go 语言连接 MySQL"。

  • 纯全文检索:聚焦"Go""MySQL""连接"等关键词,可能返回《Go 语言安装教程》(高频含"Go")、《MySQL 权限管理》(提及"连接"),快而不准,无法精准捕捉用户"连接数据库"的核心意图。
  • 纯语义检索:将查询转化为向量匹配语义相似内容,可能返回《Golang 操作 PostgreSQL 指南》(语义接近但数据库不符),懂意图却不够精确,遗漏关键专有名词匹配。

理想的搜索体验,需同时兼顾"关键词的精准性"与"语义的理解力"------这正是混合检索的核心价值,也是其成为当下搜索系统主流架构的原因。

二、两种检索的"计分逻辑":字面与语义的双重维度

混合检索的基础,是理解两类检索的得分机制。它们从不同维度评估"文档与查询的相关性",得分含义与范围差异显著。

2.1 全文检索:基于词频的字面匹配(TF-IDF / BM25)

全文检索是传统搜索的核心,依赖统计学方法评估关键词匹配度,不理解文本语义。

  • 核心逻辑:通过"词频(TF)"和"逆文档频率(IDF)"计算得分,关键词出现越频繁、在全局文档中越稀有,得分越高。
  • 得分特征:范围通常为 0~10(浮点数),数值越高代表字面匹配度越强。
  • 优劣势:速度极快、解释性强,能精准匹配专有名词;但无法处理同义词、歧义句,对语境不敏感。

2.2 语义检索:基于向量的内涵匹配(余弦相似度 / 欧氏距离)

依托大模型与向量数据库兴起,核心是将文本转化为高维向量,通过向量距离评估语义相关性。

  • 核心逻辑:文本语义越接近,向量在高维空间中的距离越近、夹角越小。
  • 得分特征:
    • 余弦相似度:范围 [-1, 1],1 表示语义完全一致,0 表示无关;
    • 欧氏距离:范围 [0, ∞),0 表示向量完全重合,数值越大语义差异越大。
  • 优劣势:能理解语境、处理同义词与模糊查询;但计算量更大,对精确关键词的匹配优先级低于全文检索。

三、核心挑战:得分归一化------让"不同单位"可比较

两类检索的得分存在"量纲差异",直接融合会导致一方权重被完全淹没。

示例:全文检索给文档 A 打 8 分(满分 10),语义检索给文档 A 打 0.85 分(满分 1),直接相加时全文得分的影响力占比超 90%,语义得分形同虚设。

解决方案:归一化(Normalization)

将两类得分映射到统一区间(通常为 [0, 1]),消除量纲差异,实现"公平竞争"。

  • 全文得分:采用线性归一化(如 8 分对应 0.8)、最大最小归一化等方式压缩至 [0, 1];
  • 语义得分:若为余弦相似度(已在 [0, 1] 区间)可直接使用,若为欧氏距离需转化为相似度后再归一化。

只有完成归一化,才能进入后续得分融合环节。

四、七种混合检索融合算法(从易到难,按需选型)

归一化后,需通过合理算法融合得分。以下七种算法覆盖不同复杂度与业务场景,附优劣分析与适用范围,便于快速决策。

4.1 线性加权融合(Linear Weighted Fusion)------ 入门首选

最直观、落地成本最低的融合方式,类似"期末考试分科加权计分",按比例平衡两类得分。

Plain 复制代码
Score_{Final} = α × Score_{FTS} + (1 - α) × Score_{Semantic}
  • 核心参数:α(0 < α < 1),用于调节权重分配:
    • α = 0.7:侧重关键词(代码检索、法律条文、精准文档查询);
    • α = 0.3:侧重语义(问答系统、客服机器人、模糊查询);
    • α = 0.5:两者均衡(通用场景默认选择)。
  • 优劣势:计算快、可解释性强,调参直观;但依赖归一化质量,无法捕捉复杂特征关联。
  • 适用场景:中小项目、快速验证效果、对精度要求不极致的通用场景。

4.2 倒数排名融合(Reciprocal Rank Fusion, RRF)------ 稳定适配

规避得分量级差异的最优方案,不依赖绝对得分,仅基于文档在两类检索中的排名计算总分。

Plain 复制代码
Score_{Final} = Σ 1/(k + rank_i)
  • 核心参数:
    • rank_i:文档在单类检索结果中的排名(第 1 名=1,第 10 名=10);
    • k:调节常数,经验值取 60(微软 Bing、Milvus 向量数据库默认值),可根据数据微调。
  • 核心逻辑:只要文档在任意一类检索中排名靠前,就能获得高总分,天然平衡两类检索优势。
  • 优劣势:无需归一化、对异常值不敏感,效果稳定;但丢失得分绝对值信息,无法倾斜某类检索权重。
  • 适用场景:得分分布不规则、难以调参、追求稳定效果的通用搜索引擎。

4.3 逻辑回归融合(Logistic Regression Fusion)------ 概率化增强

基于逻辑回归模型,将两类得分作为输入特征,输出"文档与查询相关"的概率(0~1),按概率排序。

  • 核心逻辑:通过 sigmoid 函数将线性组合结果映射到概率区间,本质是"数据驱动的加权方式",而非人工调参。
  • 实施步骤:用标注数据(相关=1,不相关=0)训练模型,自动学习两类得分的最优权重。
  • 优劣势:结果可解释为相关性概率,比线性加权更精准,能捕捉简单非线性关系;需少量标注数据,对特征工程有基础要求。
  • 适用场景:有少量标注数据、需要概率化结果的推荐系统、精准检索场景。

4.4 最大值融合(Max Fusion)------ 抓亮点策略

直接取两类得分的最大值作为最终得分,优先保留"单一维度极致匹配"的文档。

Plain 复制代码
Score_{Final} = max(Score_{FTS}, Score_{Semantic})
  • 核心逻辑:若文档在全文检索中满分(关键词完全匹配)或语义检索中满分(语义完全契合),直接认定为高质量结果。
  • 优劣势:计算极简,能快速筛选极致匹配文档;但忽略综合表现中等的优质文档,可能丢失潜在结果。
  • 适用场景:关键词精准匹配优先、允许少量漏检的场景(如公文检索、专有名词查询)。

4.5 最小值融合(Min Fusion)------ 从严筛选策略

取两类得分的最小值作为最终得分,仅保留"两类维度均表现较好"的文档,杜绝"偏科"。

Plain 复制代码
Score_{Final} = min(Score_{FTS}, Score_{Semantic})
  • 核心逻辑:要求文档同时满足关键词匹配与语义关联,过滤"仅字面匹配"或"仅语义相似"的低质量结果。
  • 优劣势:过滤精度高,结果可信度强;召回率低,可能过滤轻微偏科的优质文档。
  • 适用场景:对结果精度要求极高、容忍低召回率的学术论文检索、合规信息核查场景。

4.6 乘积融合(Product Fusion)------ 协同强化策略

将两类得分相乘得到最终得分,强化综合表现好的文档,惩罚单一维度短板。

Plain 复制代码
Score_{Final} = Score_{FTS} × Score_{Semantic}
  • 核心逻辑:若某类得分接近 0,即使另一类得分很高,最终得分也趋近于 0(过滤偏科文档);两类得分均高时,乘积结果会放大优势。
  • 优劣势:无需复杂调参,兼顾精度与召回率;对低分敏感,可能过度惩罚轻微偏科文档,需配合归一化使用。
  • 适用场景:希望平衡精度与召回率、避免偏科结果的通用检索场景。

4.7 学习排序(Learning to Rank, LTR)------ 极致精准方案

大厂核心搜索采用的方案,将得分融合转化为机器学习排序问题,捕捉多维度复杂关联。

  • 核心流程:
    • 特征工程:除全文、语义得分外,加入标题匹配度、文档热度、时效性、用户点击反馈等特征;
    • 数据标注:构建标注数据集(如"用户搜索 X 时,优先点击结果 3");
    • 模型训练:使用 LambdaMART、XGBoost-Rank 等排序模型,自动学习融合逻辑。
  • 优劣势:效果最优,可迭代优化,适配复杂业务规则;开发、维护成本高,需大量数据与算力支撑。
  • 适用场景:大厂核心搜索、对体验要求极致、有充足资源的电商搜索、通用搜索引擎。

五、实战演练:搜索"如何用 Go 连接 MySQL"

以最常用的「线性加权」和「RRF 算法」为例,演示混合检索的完整流程,验证融合效果。

5.1 场景准备

候选文档 3 篇,覆盖不同匹配维度:

  • Doc A:《Go 语言 MySQL 驱动安装指南》------ 关键词密集(Go、MySQL),语义偏向"安装",与"连接"存在偏差;
  • Doc B:《Golang 数据库操作最佳实践》------ 关键词适中(Golang、数据库),正文含 Go 连接 MySQL 代码,语义高度匹配;
  • Doc C:《Go 连接 PostgreSQL 教程》------ 语义接近"连接数据库",无 MySQL 关键词,存在偏差。

5.2 第一步:检索与归一化

分别获取两类检索原始得分,归一化至 [0, 1] 区间:

文档 全文检索(BM25)原始得分 归一化后得分 语义检索(余弦相似度) 归一化后得分
Doc A 2.8 0.95 0.60 0.60
Doc B 1.5 0.60 0.92 0.92
Doc C 1.0 0.40 0.88 0.88

5.3 第二步:算法融合与得分计算

方案 1:线性加权(α = 0.4,侧重语义)

因用户核心需求是"连接方法"(语义优先),设置 α = 0.4,语义权重占比 60%。

  • Doc A:0.4×0.95 + 0.6×0.60 = 0.38 + 0.36 = 0.74
  • Doc B:0.4×0.60 + 0.6×0.92 = 0.24 + 0.55 = 0.79
  • Doc C:0.4×0.40 + 0.6×0.88 = 0.16 + 0.53 =0.69
方案 2:RRF 算法(k = 60)

先确定文档在两类检索中的排名,再计算总分:

  • 全文检索排名:Doc A(1)→ Doc B(2)→ Doc C(3)
  • 语义检索排名:Doc B(1)→ Doc C(2)→ Doc A(3)
  • Doc A:1/(60+1) + 1/(60+3) ≈ 0.016 + 0.016 = 0.032
  • Doc B:1/(60+2) + 1/(60+1) ≈ 0.016 + 0.016 = 0.032
  • Doc C:1/(60+3) + 1/(60+2) ≈ 0.016 + 0.016 = 0.032

5.4 第三步:排序结果与分析

  1. 线性加权排序:Doc B(0.79)> Doc A(0.74)> Doc C(0.69) 精准筛选出综合最优的 Doc B,既满足语义意图(连接方法),又有关键词支撑,完全匹配用户需求。
  2. RRF 排序:三者同分,需补充规则(如语义排名优先),最终排序 Doc B > Doc A > Doc C 避免得分分布不均导致的偏差,结果稳定,无需手动调参,适合难以归一化的场景。

结论:两种算法均能输出最优结果,线性加权适合需精准控权的场景,RRF 适合追求稳定的场景,可根据业务需求灵活选择。

六、总结

混合检索的本质,是通过科学融合全文检索的"精确性"与语义检索的"理解力",打破单一检索的局限。而得分融合算法作为核心桥梁,决定了搜索结果的最终质量。

从落地优先级来看:

  1. 快速验证:优先选择「线性加权」或「RRF」,低成本、效果稳定,覆盖 80% 通用场景;
  2. 精度提升:有少量标注数据时,升级为「逻辑回归融合」,兼顾精度与可解释性;
  3. 极致体验:具备充足数据与算力时,采用「LTR 学习排序」,适配复杂业务规则;
  4. 特殊场景:精准优先用「最小值融合」,抓亮点用「最大值融合」,协同强化用「乘积融合」。

实际开发中,建议先通过线性加权或 RRF 搭建基础版本,再通过 A/B 测试调优参数、迭代算法,逐步引入用户行为特征、时效性等维度,最终实现"既找得到,又懂你心"的智能搜索体验。

最直观、落地成本最低的融合方式,类似"期末考试分科加权计分",按比例平衡两类得分。

Plain 复制代码
Score_{Final} = α × Score_{FTS} + (1 - α) × Score_{Semantic}
  • 核心参数:α(0 < α < 1),用于调节权重分配:
    • α = 0.7:侧重关键词(代码检索、法律条文、精准文档查询);
    • α = 0.3:侧重语义(问答系统、客服机器人、模糊查询);
    • α = 0.5:两者均衡(通用场景默认选择)。
  • 优劣势:计算快、可解释性强,调参直观;但依赖归一化质量,无法捕捉复杂特征关联。
  • 适用场景:中小项目、快速验证效果、对精度要求不极致的通用场景。

4.2 倒数排名融合(Reciprocal Rank Fusion, RRF)------ 稳定适配

规避得分量级差异的最优方案,不依赖绝对得分,仅基于文档在两类检索中的排名计算总分。

Plain 复制代码
Score_{Final} = Σ 1/(k + rank_i)
  • 核心参数:
    • rank_i:文档在单类检索结果中的排名(第 1 名=1,第 10 名=10);
    • k:调节常数,经验值取 60(微软 Bing、Milvus 向量数据库默认值),可根据数据微调。
  • 核心逻辑:只要文档在任意一类检索中排名靠前,就能获得高总分,天然平衡两类检索优势。
  • 优劣势:无需归一化、对异常值不敏感,效果稳定;但丢失得分绝对值信息,无法倾斜某类检索权重。
  • 适用场景:得分分布不规则、难以调参、追求稳定效果的通用搜索引擎。

4.3 逻辑回归融合(Logistic Regression Fusion)------ 概率化增强

基于逻辑回归模型,将两类得分作为输入特征,输出"文档与查询相关"的概率(0~1),按概率排序。

  • 核心逻辑:通过 sigmoid 函数将线性组合结果映射到概率区间,本质是"数据驱动的加权方式",而非人工调参。
  • 实施步骤:用标注数据(相关=1,不相关=0)训练模型,自动学习两类得分的最优权重。
  • 优劣势:结果可解释为相关性概率,比线性加权更精准,能捕捉简单非线性关系;需少量标注数据,对特征工程有基础要求。
  • 适用场景:有少量标注数据、需要概率化结果的推荐系统、精准检索场景。

4.4 最大值融合(Max Fusion)------ 抓亮点策略

直接取两类得分的最大值作为最终得分,优先保留"单一维度极致匹配"的文档。

Plain 复制代码
Score_{Final} = max(Score_{FTS}, Score_{Semantic})
  • 核心逻辑:若文档在全文检索中满分(关键词完全匹配)或语义检索中满分(语义完全契合),直接认定为高质量结果。
  • 优劣势:计算极简,能快速筛选极致匹配文档;但忽略综合表现中等的优质文档,可能丢失潜在结果。
  • 适用场景:关键词精准匹配优先、允许少量漏检的场景(如公文检索、专有名词查询)。

4.5 最小值融合(Min Fusion)------ 从严筛选策略

取两类得分的最小值作为最终得分,仅保留"两类维度均表现较好"的文档,杜绝"偏科"。

Plain 复制代码
Score_{Final} = min(Score_{FTS}, Score_{Semantic})
  • 核心逻辑:要求文档同时满足关键词匹配与语义关联,过滤"仅字面匹配"或"仅语义相似"的低质量结果。
  • 优劣势:过滤精度高,结果可信度强;召回率低,可能过滤轻微偏科的优质文档。
  • 适用场景:对结果精度要求极高、容忍低召回率的学术论文检索、合规信息核查场景。

4.6 乘积融合(Product Fusion)------ 协同强化策略

将两类得分相乘得到最终得分,强化综合表现好的文档,惩罚单一维度短板。

Plain 复制代码
Score_{Final} = Score_{FTS} × Score_{Semantic}
  • 核心逻辑:若某类得分接近 0,即使另一类得分很高,最终得分也趋近于 0(过滤偏科文档);两类得分均高时,乘积结果会放大优势。
  • 优劣势:无需复杂调参,兼顾精度与召回率;对低分敏感,可能过度惩罚轻微偏科文档,需配合归一化使用。
  • 适用场景:希望平衡精度与召回率、避免偏科结果的通用检索场景。

4.7 学习排序(Learning to Rank, LTR)------ 极致精准方案

大厂核心搜索采用的方案,将得分融合转化为机器学习排序问题,捕捉多维度复杂关联。

  • 核心流程:
    • 特征工程:除全文、语义得分外,加入标题匹配度、文档热度、时效性、用户点击反馈等特征;
    • 数据标注:构建标注数据集(如"用户搜索 X 时,优先点击结果 3");
    • 模型训练:使用 LambdaMART、XGBoost-Rank 等排序模型,自动学习融合逻辑。
  • 优劣势:效果最优,可迭代优化,适配复杂业务规则;开发、维护成本高,需大量数据与算力支撑。
  • 适用场景:大厂核心搜索、对体验要求极致、有充足资源的电商搜索、通用搜索引擎。

五、实战演练:搜索"如何用 Go 连接 MySQL"

以最常用的「线性加权」和「RRF 算法」为例,演示混合检索的完整流程,验证融合效果。

5.1 场景准备

候选文档 3 篇,覆盖不同匹配维度:

  • Doc A:《Go 语言 MySQL 驱动安装指南》------ 关键词密集(Go、MySQL),语义偏向"安装",与"连接"存在偏差;
  • Doc B:《Golang 数据库操作最佳实践》------ 关键词适中(Golang、数据库),正文含 Go 连接 MySQL 代码,语义高度匹配;
  • Doc C:《Go 连接 PostgreSQL 教程》------ 语义接近"连接数据库",无 MySQL 关键词,存在偏差。

5.2 第一步:检索与归一化

分别获取两类检索原始得分,归一化至 [0, 1] 区间:

文档 全文检索(BM25)原始得分 归一化后得分 语义检索(余弦相似度) 归一化后得分
Doc A 2.8 0.95 0.60 0.60
Doc B 1.5 0.60 0.92 0.92
Doc C 1.0 0.40 0.88 0.88

5.3 第二步:算法融合与得分计算

方案 1:线性加权(α = 0.4,侧重语义)

因用户核心需求是"连接方法"(语义优先),设置 α = 0.4,语义权重占比 60%。

  • Doc A:0.4×0.95 + 0.6×0.60 = 0.38 + 0.36 = 0.74
  • Doc B:0.4×0.60 + 0.6×0.92 = 0.24 + 0.55 = 0.79
  • Doc C:0.4×0.40 + 0.6×0.88 = 0.16 + 0.53 =0.69
方案 2:RRF 算法(k = 60)

先确定文档在两类检索中的排名,再计算总分:

  • 全文检索排名:Doc A(1)→ Doc B(2)→ Doc C(3)
  • 语义检索排名:Doc B(1)→ Doc C(2)→ Doc A(3)
  • Doc A:1/(60+1) + 1/(60+3) ≈ 0.016 + 0.016 = 0.032
  • Doc B:1/(60+2) + 1/(60+1) ≈ 0.016 + 0.016 = 0.032
  • Doc C:1/(60+3) + 1/(60+2) ≈ 0.016 + 0.016 = 0.032

5.4 第三步:排序结果与分析

  1. 线性加权排序:Doc B(0.79)> Doc A(0.74)> Doc C(0.69) 精准筛选出综合最优的 Doc B,既满足语义意图(连接方法),又有关键词支撑,完全匹配用户需求。
  2. RRF 排序:三者同分,需补充规则(如语义排名优先),最终排序 Doc B > Doc A > Doc C 避免得分分布不均导致的偏差,结果稳定,无需手动调参,适合难以归一化的场景。

结论:两种算法均能输出最优结果,线性加权适合需精准控权的场景,RRF 适合追求稳定的场景,可根据业务需求灵活选择。

六、总结

混合检索的本质,是通过科学融合全文检索的"精确性"与语义检索的"理解力",打破单一检索的局限。而得分融合算法作为核心桥梁,决定了搜索结果的最终质量。

从落地优先级来看:

  1. 快速验证:优先选择「线性加权」或「RRF」,低成本、效果稳定,覆盖 80% 通用场景;
  2. 精度提升:有少量标注数据时,升级为「逻辑回归融合」,兼顾精度与可解释性;
  3. 极致体验:具备充足数据与算力时,采用「LTR 学习排序」,适配复杂业务规则;
  4. 特殊场景:精准优先用「最小值融合」,抓亮点用「最大值融合」,协同强化用「乘积融合」。

实际开发中,建议先通过线性加权或 RRF 搭建基础版本,再通过 A/B 测试调优参数、迭代算法,逐步引入用户行为特征、时效性等维度,最终实现"既找得到,又懂你心"的智能搜索体验。

相关推荐
liliangcsdn1 天前
Agent Memory智能体记忆系统的示例分析
数据库·人工智能·全文检索
tech讯息1 天前
模数OPC社区在北京亦庄正式启航
人工智能·全文检索
Elastic 中国社区官方博客1 天前
Elasticsearch:运用 JINA 来实现多模态搜索的 RAG
大数据·人工智能·elasticsearch·搜索引擎·ai·全文检索·jina
Elastic 中国社区官方博客1 天前
Elasticsearch:语义搜索,现在默认支持多语言
大数据·数据库·人工智能·elasticsearch·搜索引擎·ai·全文检索
小冯不疯2 天前
金蝶云星空与轻易云集成平台数据对接方案
全文检索·scala
Elastic 中国社区官方博客3 天前
通过自主 IT 平台和 Elastic 迈出可观测性的下一步
大数据·elasticsearch·搜索引擎·全文检索·可用性测试
liliangcsdn3 天前
LLM如何以ReAct Agent方式统计分析去重后数据
数据库·人工智能·全文检索
希望永不加班3 天前
SpringBoot 整合 Elasticsearch 实现全文检索
java·spring boot·后端·elasticsearch·全文检索
Elastic 中国社区官方博客5 天前
使用 Elastic Workflows 监控 Kibana 仪表板视图
大数据·运维·数据库·elasticsearch·搜索引擎·全文检索·kibana
Elastic 中国社区官方博客7 天前
LINQ 到 ES|QL:使用 C# 查询 Elasticsearch
大数据·数据库·sql·elasticsearch·搜索引擎·全文检索·linq