
大家好,我是 Ai 学习的老章
昨天阿里开源家族迎来两个新成员------Qwen3-Embedding
和 Qwen3-Reranker
,专为文本表征、检索和排序任务设计,基于 Qwen3
基础模型构建。
看了测评,Qwen3-Embedding-8B
目前是 MTEB 多语言排行榜榜首,我最期待的是Qwen3-Embedding-0.6B,模型文件不足 1.2GB,Q4 量化版只有 639MB!
Qwen3-Reranker
也很能打,我准备替换掉目前正在使用的 BGE-reranker-v2-m3
了。
下面咱们一起看看这两个新模型
关于 Qwen3-Embedding 和 Qwen3-Reranker 的一切
知识库
Embedding
和 Reranker
都是应用于知识库的两个核心技术。
知识库是一个结构化或非结构化的信息存储系统,用于存储、组织和检索领域特定或通用知识,结合大模型技术(如语义搜索和生成模型)来提升检索效率和回答质量。简单说,就是给大模型外挂了新知识。
说起知识库,大家更熟悉的技术是 RAG
,它通过结合检索模型和生成模型,先从知识库检索相关信息,再由生成模型(如大语言模型)基于检索结果生成自然语言回答,从而减少大模型的幻觉,提高回答的准确性和上下文相关性,特别适合知识库问答场景。
RAG
基本工作流程包括:
-
- 文档处理:将原始文档进行分块、清洗和标准化处理
-
- 向量化:将文本转换为高维向量表示
-
- 索引构建:构建高效的向量索引以支持快速检索
-
- 检索:根据用户查询,从索引中检索相关文档
-
- 重排序:对检索结果进行精确排序,确保最相关的文档排在前面
-
- 生成回答:基于检索到的相关文档,生成准确的回答

事实上 RAG 目前已经从上面最简单的技术架构发展出各种变体

Qwen3-Embedding
对应 向量化环节
- • 定义:将文本、图像或其他数据转化为高维向量表示,捕捉其语义内容。嵌入模型通过深度学习生成这些向量,使语义相似的文本在向量空间中距离较近。
- • 作用:支持语义搜索,允许知识库根据查询内容的语义(而非仅关键词)返回相关结果。例如,查询"如何优化数据库"可以匹配包含"数据库性能提升"的文档。

Qwen3-Reranker
对应重排序环节
- • 检索:从知识库中初步筛选与查询相关的文档,通常基于嵌入向量的相似度(如余弦相似度)。
- • 重排序(Reranking):对初步检索结果进行精细排序,使用交叉编码器(cross-encoder)计算查询与文档的相关性得分,进一步提升结果精准度。
- • 作用:结合"粗筛(Embedding)+ 精排(Reranking)"的流程,确保返回最相关的知识片段。

Qwen3-Embedding
Qwen3-Embedding
提供 0.6B、4B 和 8B 三种参数规模,满足不同场景的性能与效率需求。
官方还放出了这三种参数模型的 GGUF 量化版

www.modelscope.cn/collections...
模型类型 | 模型 | 大小 | 层数 | 序列长度 | 嵌入维度 | MRL 支持 | 指令感知 |
---|---|---|---|---|---|---|---|
文本嵌入 | Qwen3-Embedding-0.6B | 0.6B | 28 | 32K | 1024 | 是 | 是 |
文本嵌入 | Qwen3-Embedding-4B | 4B | 36 | 32K | 2560 | 是 | 是 |
文本嵌入 | Qwen3-Embedding-8B | 8B | 36 | 32K | 4096 | 是 | 是 |
Qwen3-Embedding
功能特点:
- • 支持自定义最终嵌入的维度和指令感知(根据不同的任务定制输入指令,官方测试:使用指令通常比不使用指令能提高 1% 到 5% 的性能)
- • 支持 119 种语言,具备强大的多语言、跨语言和代码检索能力,适用于文档检索、RAG(检索增强生成)、分类、情感分析、代码搜索等任务。
性能方面:
8B 参数的 Embedding 模型在 MTEB 多语言排行榜上位列第一(得分 70.58)
4B 参数版就已经超越目前特能打的 gemini-embedding-exp-03-07
了
而我目前使用的是 BGE-M3,也打不过Qwen3-Embedding-0.6B
了
这太诱人了,我看外面的评价,有人在测试把量化版放到 Raspberry Pi、手机端运行了
不过部署上,目前仅支持 transformers 的样子,vllm 报错了,应该需要更新
Qwen3-Reranker
Qwen3-Embedding
也提供 0.6B、4B 和 8B 三种参数规模

www.modelscope.cn/collections...
模型类型 | 模型 | 大小 | 层数 | 序列长度 | 指令感知 |
---|---|---|---|---|---|
文本重排序 | Qwen3-Reranker-0.6B | 0.6B | 28 | 32K | 是 |
文本重排序 | Qwen3-Reranker-4B | 4B | 36 | 32K | 是 |
文本重排序 | Qwen3-Reranker-8B | 8B | 36 | 32K | 是 |
测评:
Model | Param | MTEB-R | CMTEB-R | MMTEB-R | MLDR | MTEB-Code | FollowIR |
---|---|---|---|---|---|---|---|
Jina-multilingual-reranker-v2-base | 0.3B | 58.22 | 63.37 | 63.73 | 39.66 | 58.98 | -0.68 |
gte-multilingual-reranker-base | 0.3B | 59.51 | 74.08 | 59.44 | 66.33 | 54.18 | -1.64 |
BGE-reranker-v2-m3 | 0.6B | 57.03 | 72.16 | 58.36 | 59.51 | 41.38 | -0.01 |
Qwen3-Reranker-0.6B | 0.6B | 65.80 | 71.31 | 66.36 | 67.28 | 73.42 | 5.41 |
Qwen3-Reranker-4B | 4B | 69.76 | 75.94 | 72.74 | 69.97 | 81.20 | 14.84 |
Qwen3-Reranker-8B | 8B | 69.02 | 77.45 | 72.94 | 70.19 | 81.22 | 8.05 |
Qwen3-Reranker` 模型在文本检索场景中显著提升搜索相关性,尤其在 MTEB-R、CMTEB-R、MMTEB-R 和 MTEB-Code 等检索子集上表现优异
Qwen3-Reranker-0.6B
就已经傲视群雄了
我用 vllm 部署了 4B 版,正在测试

下载,部署代码
css
pip install modelscope
mkldir Qwen3-Reranker-4B
cd Qwen3-Reranker-4B
modelscope download Qwem/Qwen3-Reranker-4B --local_dir .
vllm serve . --served-model-name Qwen3-Reranker-4B --port 8001
制作不易,如果这篇文章觉得对你有用,可否点个关注。给我个三连击:点赞、转发和在看。若可以再给我加个🌟,谢谢你看我的文章,我们下篇再见!
搭建完美的写作环境:工具篇(12 章)
图解机器学习 - 中文版(72 张 PNG)
ChatGPT、大模型系列研究报告(50 个 PDF)
108 页 PDF 小册子:搭建机器学习开发环境及 Python 基础
116 页 PDF 小册子:机器学习中的概率论、统计学、线性代数
史上最全!371 张速查表,涵盖 AI、ChatGPT、Python、R、深度学习、机器学习等