Qwen3开源最新Embedding模型

导语

Qwen3-Embedding 是构建于 Qwen3 基础模型上的新一代文本嵌入与重排序模型系列,显著提升了多语言理解、代码检索与复杂指令任务中的表现。该系列模型覆盖三个参数规模(0.6B、4B、8B),并通过多阶段训练策略,结合大规模弱监督合成数据、有监督微调与模型融合,最终在多个基准测试中取得了当前最优性能。

1 引言

文本嵌入(Text Embedding)与重排序(Reranking)是现代自然语言处理(NLP)系统的核心技术,广泛应用于搜索、问答、推荐等场景。随着 LLM(如 Qwen3、GPT-4o)的进展,检索增强生成(RAG)和智能体系统推动了文本语义建模的新需求。Qwen3-Embedding 系列通过构建在 Qwen3 模型之上,提出新的训练范式,应对多语言、大规模、多任务嵌入与重排序挑战。

2 方法

2.1 模型架构

Qwen3-Embedding 与 Qwen3-Reranker 基于 Qwen3 dense 架构,支持三种模型规模:0.6B、4B、8B。

  • 嵌入模型使用因果注意力结构,输入格式为:{Instruction} {Query}<|endoftext|>,最终嵌入由 [EOS] token 的隐藏状态生成。
  • 重排序模型通过 Chat 模板将相似度判断转化为二分类问题,模型输出 "yes"/"no" 的概率用于计算打分:

2.2 多阶段训练流程

训练共三阶段:

① 弱监督预训练

使用 Qwen3-32B 生成的150M对合成文本,任务类型覆盖检索、STS、分类、双语对齐。优化目标为对比学习损失:

② 有监督微调

筛选出相似度(cosine similarity)大于 0.7 的约12M对高质量样本和7M有标签数据集,继续训练。

③ 模型融合

使用球面线性插值(slerp)融合多个微调模型,提升泛化能力。原文描述如下:

after completing the supervised f ine-tuning, we applied a model merging technique based on spherical linear interpolation (slerp). This technique involves merging multiple model checkpoints saved during the fine-tuning process.

表 1展示了所有Qwen3 Embedding 模型结构参数与功能支持。

2.3 合成数据构建

使用 Qwen3-32B,从语料中抽取段落,通过两阶段生成流程:

  1. 配置阶段:定义角色(Persona Hub)、问题类型、难度;
  2. 查询生成阶段:控制查询语言、长度、风格,结构化输出为 JSON。

配置生成阶段Prompt如下:

查询生成阶段Prompt如下:

3 实验

3.1 实验结果

表 2展示了Qwen3-Embedding模型在MMTEB 多语言任务集上的表现,可以看到:

  • Qwen3-Embedding-4B/8B 达到 SOTA
  • 0.6B 紧随 Gemini-Embedding,优于大多数开源模型

表 3展示了Qwen3-Embedding模型在 MTEB English、CMTEB、MTEB Code 上的表现,Qwen3-Embedding模型持续领先。

表 4展示了Qwen3-Reranker模型在重排序任务上的评估结果,可以看到:

  • 所有 Qwen3-Reranker 模型优于 baseline
  • 8B 模型在几乎所有任务中取得最高得分

3.2 实验分析

表 5以Qwen3-Embedding-0.6B 模型为例展示了消融实验结果,有以下分析结论:

  • 弱监督训练有效性:移除弱监督阶段 → 性能显著下降
  • 模型融合有效性:未融合模型表现不如最终融合模型

4 总结

Qwen3-Embedding 系列是构建于 Qwen3 基础模型的通用文本嵌入与重排序解决方案,具有:

  • 当前最优性能(MTEB、MMTEB、CMTEB、MTEB-Code)
  • 多语言、多任务、多规模适配
  • 多阶段训练策略提升泛化能力
  • 全模型规模(0.6B / 4B / 8B)已开源,Apache 2.0 协议
  • 适用于语义检索、跨语言匹配、代码检索、RAG 系统等多种实际场景。
相关推荐
RWKV元始智能16 小时前
RWKV超并发项目教程,RWKV-LM训练提速40%
人工智能·rnn·深度学习·自然语言处理·开源
冬奇Lab16 小时前
RAG 系列(二):用 LangChain 搭建你的第一个 RAG Pipeline
人工智能·langchain·llm
AI技术增长17 小时前
Pytorch图像去噪实战(六):CBDNet真实噪声去噪实战,解决合成噪声模型落地效果差的问题
pytorch·深度学习·机器学习
小糖学代码19 小时前
LLM系列:2.pytorch入门:8.神经网络的损失函数(criterion)
人工智能·深度学习·神经网络
Jmayday19 小时前
Pytorch:RNN理论基础
pytorch·rnn·深度学习
AI周红伟21 小时前
周红伟:GPT-Image-2深度解析:从技术原理到实战教程,为什么它能让整个AI圈炸锅?
人工智能·gpt·深度学习·机器学习·语言模型·openclaw
端平入洛1 天前
梯度是什么:PyTorch 自动求导详解
人工智能·深度学习
Uopiasd1234oo1 天前
上下文引导模块改进YOLOv26局部与全局特征融合能力双重提升
深度学习·yolo·机器学习
薛定谔的猫3691 天前
深度解析:大语言模型 (LLM) Agent 的架构与演进趋势
ai·llm·agent·技术趋势·artificial intelligence
han_1 天前
一篇看懂国内外主流大模型:GPT、Claude、Gemini、DeepSeek、通义千问有什么区别?
前端·人工智能·llm