玩转RAG应用:如何选对Embedding模型?

在打造检索增强生成(RAG)应用时,选择合适的Embedding模型就像挑选合适的工具,直接影响到应用的表现和效果。​那么,面对众多的模型,我们该如何轻松找到最适合的那一款呢?​

本文大致参考思路是:先从Mteb榜单选"最优",然后结合实际需求选择效果以及速度性价比较高的模型

MTEB简介

MTEB : Massive Text Embedding Benchmark

MTEB 是一个包含广泛文本嵌入(Text Embedding)的基准测试,它提供了多种语言的数十个数据集,用于各种 NLP 任务,例如文本分类、聚类、检索和文本相似性。MTEB 提供了一个公共排行榜,允许研究人员提交他们的结果并跟踪他们的进展。MTEB 还提供了一个简单的 API,允许研究人员轻松地将他们的模型与基准测试进行比较。

MTEB 包含以下 8 种任务类型:

  • Bitext Mining :寻找两种语言句子集之间的最佳匹配。输入是来自两种不同语言的两个句子集,对于来自第一个句子集的句子,找到在第二个子集中最匹配的句子。模型将句子编码成向量后用余弦相似度来寻找最相似的句子对。F1是主要的评估指标、Accuracy、precision、recall也一并计算了。
  • Classification :使用嵌入模型训练逻辑回归分类器。训练集和测试集通过给定模型编码,测试集向量被用来训练一个LR分类器(最多100次迭代),然后使用测试集来打分,主要评估指标是accuracy with average precision,同时包括F1。
  • Clustering :将句子或段落分组为有意义的簇。给定句子集或段落集,将其分组为有意义的簇。在编码后的文档上训练一个 mini-batch k-means 模型(batch size为32, k是不同标签的个数),然后使用v-meature为模型打分。
  • Pair Classification :为一对文本输入分配标签,通常是二元变量,表示重复或释义对。输入是一对带标签的文本,两个文本被编码后计算多种距离:cosine similarity, dot product, euclidean distance, manhattan distance。接着使用最佳阈值来计算accuracy, average precision, f1, precision, recall。基于余弦相似度的平均精度是主要指标。
  • Reranking :根据与查询的相关性对结果进行重新排序。输入是一个查询语句以及一个包含相关和不相关文本的列表。模型编码文本后比较与查询语句的余弦相似性。每个查询语句的分数都被计算并平均所有查询语句的分数。指标有平均 M R R @ k MRR@kMRR@k和MAP(主要指标)
  • Retrieval :找到相关文档。每个数据集包括一个语料集,查询语句及其与语料中的相关文档的映射。模型编码所有查询语句和语料文档之后计算余弦相似度,对每一个查询语句的结果排序后计算k的多个取值所对应的nDCG@k, MRR@k, MAP@k, precision@k , recall@k。使用BEIR相同的设置,nDCG@10是主要指标。
  • Semantic Textual Similarity (STS) :确定句子对的相似性。给定句子对计算它们的相似度,标签是连续得分(越大相似度越高)。模型编码句子后计算使用不同的距离指标计算它们的相似性,计算好的距离与标签相似度基准比较Pearson和Spearman相关性。主要指标是基于余弦相似度的Spearma
  • Summarization :评估机器生成的摘要。包括一个手写摘要和机器生成摘要数据集,目标是给机器生成摘要打分。模型编码所有摘要,然后对于每一个机器生成摘要向量,计算其与所有手写摘要向量的距离,将相似度最大的分数作为单个机器生成摘要的分数,接下来与基准比较计算Pearson和Spearman相关性。主要指标是基于余弦相似度的Spearman相关性。

MTEB榜单介绍

有两个榜单MTEB地址:

下面我们以旧版本为例(其中有中文等语言的筛选),看下榜单怎么快速筛序我们想要的模型

我们可以在搜索框里面输入模型名字以及关键词进行快速筛选,同时可以结合模型类型以及模型大小进行过滤,下面一栏是可以筛切换语言种类和具体任务榜单,下面是中文模型的模型排行:

考虑因素

有同学也有反应MTEB榜单可能存在过拟合的现象,我们可以尽量选取前面的模型,结合使用或者下载量来选择比较靠谱的模型。

除了排行榜,模型的以下特性也需考虑:

  • 模型大小: 影响计算资源需求和延迟。例如,较大的模型如 gte-Qwen2-7B-instruct(7 亿参数)可能更适合复杂任务,但计算成本更高。

  • 嵌入维度: 维度较低的模型(如 384 维的 all-MiniLM-L6-v2)存储和比较更快,但可能牺牲语义捕捉能力。

  • 语言支持: 多语言模型如 multilingal-e5-large 适合跨语言应用,而单语言模型可能在特定语言上表现更好。

  • 预训练与微调: 预训练模型如 intfloat/e5-large-v2 适合通用场景,领域特定模型如 PubMedBERT(医学领域)则需微调以适应特定数据。

  • 存储和内存等资源需求: 高维向量需要更多的存储空间,这可能会带来长期成本。例如,较高维度的模型如 text-embedding-ada-002 需要更多的存储资源。另外,较大的模型可能会占用更多内存,因此不适合内存有限的设备。

  • 推理时间: 如果你的应用场景对响应时间有高要求,需要选择在推理时速度较快的模型。

  • 模型在特定领域的表现: 通用 Embedding 模型在特定垂直领域(如医学、法律和金融等)可能不如专用模型有效。这些领域通常需要专门训练 Embedding 模型来捕捉特定的专业术语和语境。为特定业务需求优化的 Embedding 模型能够显著提升检索和生成的质量。例如,通过结合向量检索和重排序(reranking)技术,可以进一步优化结果。

  • 处理长文本的能力: 切分的文本片段后续需要通过 Embedding 模型进行向量化,所以必须考虑向量模型对输入文本块的 tokens 长度限制,超出这个限制则会导致模型对文本进行截断,从而丢失信息,影响下游任务的性能。不同的 Embedding 模型对文本块长度的支持能力不同。比如,BERT 及其变体通常支持最多 512 个tokens,处理长文本时则需要将文本分成更小的块,意味着需要更加精细化的分块策略。而 Jina AI 的 Embedding 模型和 bge-m3 模型则支持 8K 的 tokens 输入,适合处理长文本块。

  • 模型的可扩展性与易用性 : 微调和更新的能力:对于一个不断迭代的RAG系统,选择一个能够轻松微调和持续更新的模型至关重要。比如Hugging Face的Transformers库、FlaggEmbedding提供了便捷的微调工具。模型是否易于集成进现有的RAG架构?文档是否清晰?社区支持如何?

  • 成本与可用性: 开源模型(如 E5 系列)免费,专有模型(如 OpenAI 的 text-embedding-3-large)可能涉及 API 费用和隐私问题

比较流行的Embedding模型

下面是一些按下载量排行比较高的模型,可能实际数据有变动

Model 下载量 说明
BAAI/bge-m3 1964K 多语言,bge还有英文三个版本,下载均超过1M
BAAI/bge-large-zh-v1.5 1882K 中文
thenlper/gte-base 985K 英语
jinaai/jina-embeddings-v2-base-en 934K 英语
jinaai/jina-embeddings-v2-small-en 495K 英语
intfloat/multilingual-e5-large 816K 多语言
intfloat/e5-large-v2 714K 英语
maidalun1020/bce-embedding-base_v1 462K 中英双语跨语言能力强。
thenlper/gte-large 308K 英文
thenlper/gte-small 280K 英文
NeuML/pubmedbert-base-embeddings 184K 英语
pyannote/embedding 147K 需要注册
avsolatorio/GIST-large-Embedding-v0 112K 英语,基于 BAAI/bge-large-en-v1.5 微调
moka-ai/m3e-base 108K 中英,群友推荐
avsolatorio/GIST-Embedding-v0 100K 英文
Salesforce/SFR-Embedding-Mistral 91K 英文,基于Mistral训练
aspire/acge_text_embedding 51K 中文模型 (上升非常迅速)
thenlper/gte-large-zh 12K 中文,入榜原因:GTE英文版下载量超大,值得关注
jinaai/jina-embeddings-v2-base-zh 5K 中文,入榜原因:英文版下载量大,值得关注
相关推荐
边缘计算社区18 分钟前
英伟达 GTC 2025观察:边缘计算的新机遇与AI革命的下一个十年
人工智能·边缘计算
努力犯错36 分钟前
开源视觉语言模型MiniMax-VL-01:动态分辨率+4M超长文本,性能比肩GPT-4o
人工智能·语言模型·自然语言处理
量子位1 小时前
AMD 跑 DeepSeek 性能超 H200!128 并发 Token 间延迟不超 50ms,吞吐量达 H200 五倍
人工智能·deepseek
K线引力场1 小时前
如何通过 iTick 外汇数据 API 与 Cursor AI 实现量化策略开发
人工智能·开源
寻丶幽风1 小时前
论文阅读笔记——MTGS: Multi-Traversal Gaussian Splatting
论文阅读·人工智能·笔记·自动驾驶·模拟器·多轨迹驾驶场景
量子位1 小时前
DeepSeek V3“小版本升级” 实测堪比 V3.5,非推理模型也有 “啊哈时刻”,7 米甘蔗过 2 米门想通了
人工智能·deepseek
Chaos_Wang_1 小时前
NLP高频面试题(十一)——RLHF的流程有哪些
人工智能·深度学习·自然语言处理
机器之心1 小时前
Uni-3DAR用自回归统一微观与宏观的3D世界,性能超扩散模型256%,推理快21.8倍
人工智能
不加冰的红茶要热的1 小时前
【机器学习】什么是逻辑回归?
人工智能·机器学习·逻辑回归
即安莉1 小时前
OPENCV数字识别(非手写数字/采用模板匹配)
人工智能·opencv·计算机视觉