阿里牛逼,又开源两个遥遥领先的模型(向量化、重排),知识库要翻天地覆了

null

大家好,我是 Ai 学习的老章

昨天阿里开源家族迎来两个新成员------Qwen3-EmbeddingQwen3-Reranker,专为文本表征、检索和排序任务设计,基于 Qwen3 基础模型构建。

看了测评,Qwen3-Embedding-8B 目前是 MTEB 多语言排行榜榜首,我最期待的是Qwen3-Embedding-0.6B,模型文件不足 1.2GB,Q4 量化版只有 639MB!

Qwen3-Reranker 也很能打,我准备替换掉目前正在使用的 BGE-reranker-v2-m3 了。

下面咱们一起看看这两个新模型

关于 Qwen3-Embedding 和 Qwen3-Reranker 的一切

知识库

EmbeddingReranker 都是应用于知识库的两个核心技术。

知识库是一个结构化或非结构化的信息存储系统,用于存储、组织和检索领域特定或通用知识,结合大模型技术(如语义搜索和生成模型)来提升检索效率和回答质量。简单说,就是给大模型外挂了新知识。

说起知识库,大家更熟悉的技术是 RAG,它通过结合检索模型和生成模型,先从知识库检索相关信息,再由生成模型(如大语言模型)基于检索结果生成自然语言回答,从而减少大模型的幻觉,提高回答的准确性和上下文相关性,特别适合知识库问答场景。

RAG 基本工作流程包括:

    1. 文档处理:将原始文档进行分块、清洗和标准化处理
    1. 向量化:将文本转换为高维向量表示
    1. 索引构建:构建高效的向量索引以支持快速检索
    1. 检索:根据用户查询,从索引中检索相关文档
    1. 重排序:对检索结果进行精确排序,确保最相关的文档排在前面
    1. 生成回答:基于检索到的相关文档,生成准确的回答
null

事实上 RAG 目前已经从上面最简单的技术架构发展出各种变体

null

Qwen3-Embedding 对应 向量化环节

  • • 定义:将文本、图像或其他数据转化为高维向量表示,捕捉其语义内容。嵌入模型通过深度学习生成这些向量,使语义相似的文本在向量空间中距离较近。
  • • 作用:支持语义搜索,允许知识库根据查询内容的语义(而非仅关键词)返回相关结果。例如,查询"如何优化数据库"可以匹配包含"数据库性能提升"的文档。
null

Qwen3-Reranker 对应重排序环节

  • • 检索:从知识库中初步筛选与查询相关的文档,通常基于嵌入向量的相似度(如余弦相似度)。
  • • 重排序(Reranking):对初步检索结果进行精细排序,使用交叉编码器(cross-encoder)计算查询与文档的相关性得分,进一步提升结果精准度。
  • • 作用:结合"粗筛(Embedding)+ 精排(Reranking)"的流程,确保返回最相关的知识片段。
null

Qwen3-Embedding

Qwen3-Embedding 提供 0.6B、4B 和 8B 三种参数规模,满足不同场景的性能与效率需求。

官方还放出了这三种参数模型的 GGUF 量化版

null

www.modelscope.cn/collections...

模型类型 模型 大小 层数 序列长度 嵌入维度 MRL 支持 指令感知
文本嵌入 Qwen3-Embedding-0.6B 0.6B 28 32K 1024
文本嵌入 Qwen3-Embedding-4B 4B 36 32K 2560
文本嵌入 Qwen3-Embedding-8B 8B 36 32K 4096

Qwen3-Embedding 功能特点:

  • • 支持自定义最终嵌入的维度和指令感知(根据不同的任务定制输入指令,官方测试:使用指令通常比不使用指令能提高 1% 到 5% 的性能)
  • • 支持 119 种语言,具备强大的多语言、跨语言和代码检索能力,适用于文档检索、RAG(检索增强生成)、分类、情感分析、代码搜索等任务。

性能方面:

8B 参数的 Embedding 模型在 MTEB 多语言排行榜上位列第一(得分 70.58)

4B 参数版就已经超越目前特能打的 gemini-embedding-exp-03-07

而我目前使用的是 BGE-M3,也打不过Qwen3-Embedding-0.6B

这太诱人了,我看外面的评价,有人在测试把量化版放到 Raspberry Pi、手机端运行了

不过部署上,目前仅支持 transformers 的样子,vllm 报错了,应该需要更新

Qwen3-Reranker

Qwen3-Embedding 也提供 0.6B、4B 和 8B 三种参数规模

null

www.modelscope.cn/collections...

模型类型 模型 大小 层数 序列长度 指令感知
文本重排序 Qwen3-Reranker-0.6B 0.6B 28 32K
文本重排序 Qwen3-Reranker-4B 4B 36 32K
文本重排序 Qwen3-Reranker-8B 8B 36 32K

测评:

Model Param MTEB-R CMTEB-R MMTEB-R MLDR MTEB-Code FollowIR
Jina-multilingual-reranker-v2-base 0.3B 58.22 63.37 63.73 39.66 58.98 -0.68
gte-multilingual-reranker-base 0.3B 59.51 74.08 59.44 66.33 54.18 -1.64
BGE-reranker-v2-m3 0.6B 57.03 72.16 58.36 59.51 41.38 -0.01
Qwen3-Reranker-0.6B 0.6B 65.80 71.31 66.36 67.28 73.42 5.41
Qwen3-Reranker-4B 4B 69.76 75.94 72.74 69.97 81.20 14.84
Qwen3-Reranker-8B 8B 69.02 77.45 72.94 70.19 81.22 8.05

Qwen3-Reranker` 模型在文本检索场景中显著提升搜索相关性,尤其在 MTEB-R、CMTEB-R、MMTEB-R 和 MTEB-Code 等检索子集上表现优异

Qwen3-Reranker-0.6B就已经傲视群雄了

我用 vllm 部署了 4B 版,正在测试

null

下载,部署代码

css 复制代码
    
    
    
  pip install modelscope
mkldir Qwen3-Reranker-4B
cd  Qwen3-Reranker-4B
modelscope download Qwem/Qwen3-Reranker-4B --local_dir .
vllm serve . --served-model-name Qwen3-Reranker-4B --port 8001

制作不易,如果这篇文章觉得对你有用,可否点个关注。给我个三连击:点赞、转发和在看。若可以再给我加个🌟,谢谢你看我的文章,我们下篇再见!

搭建完美的写作环境:工具篇(12 章)

图解机器学习 - 中文版(72 张 PNG)

ChatGPT、大模型系列研究报告(50 个 PDF)

108 页 PDF 小册子:搭建机器学习开发环境及 Python 基础

116 页 PDF 小册子:机器学习中的概率论、统计学、线性代数
史上最全!371 张速查表,涵盖 AI、ChatGPT、Python、R、深度学习、机器学习等

相关推荐
这儿有一堆花4 分钟前
比特币:固若金汤的数字堡垒与它的四道防线
算法·区块链·哈希算法
客卿1239 分钟前
力扣100-移动0
算法·leetcode·职场和发展
CM莫问3 小时前
<论文>(微软)WINA:用于加速大语言模型推理的权重感知神经元激活
人工智能·算法·语言模型·自然语言处理·大模型·推理加速
计信金边罗5 小时前
是否存在路径(FIFOBB算法)
算法·蓝桥杯·图论
MZWeiei5 小时前
KMP 算法中 next 数组的构建函数 get_next
算法·kmp
Fanxt_Ja6 小时前
【JVM】三色标记法原理
java·开发语言·jvm·算法
luofeiju7 小时前
行列式的性质
线性代数·算法·矩阵
緈福的街口7 小时前
【leetcode】347. 前k个高频元素
算法·leetcode·职场和发展
pen-ai7 小时前
【统计方法】基础分类器: logistic, knn, svm, lda
算法·机器学习·支持向量机
鑫鑫向栄8 小时前
[蓝桥杯]春晚魔术【算法赛】
算法·职场和发展·蓝桥杯