万字长文解读Qwen进化史:27篇论文深度复盘Qwen模型家族

原文: https://mp.weixin.qq.com/s/6tpV4YXl7EM14E7i0492dA

欢迎关注公zh: AI-Frontiers

LLM往期文章推荐

3年,从0到全球领跑:万字长文拆解DeepSeek大模型技术演进

从ResNet到mHC:DeepSeek重构残差连接,额外开销仅6.7%,附复现代码

收藏!LLM开发全链路:5大步骤+15大框架,从数据治理到RLHF一文通关

收藏!LLM-RL训练框架:3大流派+6大框架,一文搞定

自2023年生成式人工智能迎来爆发以来,LLM技术的发展已从单纯的堆训练数据、堆参数量,转向了架构效率、模态融合以及长上下文推理能力的深水区。

在这场全球性的技术角逐中,阿里巴巴通义实验室推出的 Qwen(通义千问)系列模型,凭借其极其密集且高质量的开源迭代节奏,构建了一个庞大生态系统,覆盖了从端侧微型模型到云端巨型旗舰、从纯文本处理到全模态实时交互。

本篇将按照时间倒序从2026年3月追溯至2023年9月,梳理了Qwen生态系统中发布的27项LLM核心技术成果:基座大模型历经Qwen → Qwen2 → Qwen2.5 → Qwen3 → Qwen3.5持续迭代升级;多模态能力从视觉语言逐步拓展至音频理解,最终实现全模态融合;技术边界不断延伸,覆盖代码生成、图像生成、向量检索、安全对齐等核心能力。通过对每一代模型的发布时间、核心定位、技术创新、架构特点以及模型效果进行深度剖析,揭示了Qwen如何通过引入混合专家网络(MoE)、多维旋转位置编码(mRoPE)、门控增量网络(Gated Delta Networks,即线性注意力机制)以及原生多模态融合(Early Fusion)等颠覆性技术,彻底打破传统 Transformer 架构的理论瓶颈。

TL, DR

发布时间 模型/技术名称 核心突破与架构特性
2026/3/3 Qwen3.5 (Small/Plus) 早期多模态融合(Early Fusion),Gated DeltaNet 线性注意力极大提升解码速度,微型模型端侧化。
2026/2/2 Qwen3-Coder-Next 引入 Gated DeltaNet 与极度稀疏 MoE 的混合布局,O(1) 复杂度破解超长代码上下文。
2026/1/30 Qwen3-ASR 基于 LLM 的非自回归(NAR)强制对齐算法,并行转录极速响应。
2026/1/23 Qwen3-TTS 双分词器流式合成机制,97ms首包延迟与极速音色克隆。
2026/1/16 多模态安全 Benchmark 定义跨模态隐式越狱与视觉对抗样本攻击的行业测评标准。
2026/1/12 Qwen3-VL-Embedding 双塔召回+单塔重排,构建多模态(图、文、视频)统一向量表征空间。
2025/12/18 Qwen-Image-Layered RGBA-VAE 加持 VLD-MMDiT,一次输出语义解耦的多个 PSD 图层。
2025/12/16 QwenLong-L1.5 4M Token 迭代记忆增强智能体框架,AEPO 熵控制解决 RL 奖励稀疏。
2025/12/4 Qwen3-VL 推出 VL-Thinking 视觉深度思维链,构建跨时空因果逻辑体系。
2025/10/17 Qwen3Guard Transformer 尾部直连分类头,实现 Token 级别动态三级安全拦截。
2025/9/23 Qwen3-Omni Thinker-Talker 架构解耦推理与语音,轻量卷积全面淘汰扩散生成音频。
2025/8/5 Qwen-Image 20B 级多模态扩散网络,深度利用 LLM 先验完美解决复杂中文排版渲染。
2025/6/6 Qwen3 Embedding 大语言模型降维至文本检索,支持套娃表征学习(MRL)动态维度。
2025/5/26 QwenLong 预研 语言引导上下文动态压缩,百万级上下文渐进强化学习探索。
2025/5/19 Qwen3 Tech Report 支持119种语言,隐空间自动路由 Thinking / 非Thinking 双重认知模式。
2025/5/7 Qwen3 Quantization 全面评估 1-8 bit 量化对深层逻辑(CoT)坍塌的临界影响。
2025/4/2 Open-Qwen2VL 完全开源多模态训练全管线(序列打包技术与过滤机制)。
2025/3/27 Qwen2.5-Omni 端到端多模态流式响应,首次证明声学特征联合计算超越文本中转。
2025/2/20 Qwen2.5-VL 输出绝对空间坐标,打造首个能在电脑与手机执行 GUI 操作的无死角代理。
2025/1/28 Qwen2.5-1M 渐进式自适应基础频率扩展与稀疏预填充,正式跨越百万级 Token。
2024/12/20 Qwen2.5 Tech Report 深度 RLHF 与海量 STEM 预料,榨干参数冗余确立开源界全尺寸霸主。
2024/9/19 Qwen2.5-Coder 5.5万亿专属 token 预训练,借助编译器反馈清洗逻辑数据。
2024/9/19 Qwen2-VL 发明多维旋转位置编码(mRoPE),确立三维视觉坐标观。
2024/7/17 Qwen2-Audio 直接利用自然语言 Prompt 与 DPO 统一语音对话与音频解析。
2024/7/16 Qwen2 Tech Report 首次大规模引入 MoE 网络与 GQA 机制,确立经济高效架构标准。
2023/11/15 Qwen-Audio 层级标签防干扰设计,验证单一模型一统三十余项音频任务的可行性。
2023/9/28 Qwen Tech Report 家族首代基座发布,超大 BPE 词表设计,奠定开源双语标杆。

一、2026年极致速度、混合架构与微型智能体爆发

进入2026年第一季度,通义团队的技术演进呈现出两个极致方向:①在检索与交互层面上追求近乎零延迟的极限优化;②通过颠覆性的混合线性注意力架构(Gated Delta Networks),在微型和大型模型上实现了不可思议的推理加速。

1 Qwen3.5 (Small Series & 397B Plus)

作为Qwen生态截至现在的巅峰之作,Qwen3.5系列彻底贯彻了「全模态原生」与「线性注意力」的两大技术路线。在模态融合策略上,模型摒弃了图像文本后期对齐的旧有路径,转而在Token级输入阶段就采用了多模态早期融合训练。在注意力机制上Qwen3.5全面继承并发扬了混合架构(Gated DeltaNet + 稀疏 MoE),将该技术扩展到了397B的超大规模,单次仅激活17B。

在吞吐量上,得益于线性注意力的极低开销,Qwen3.5在处理256K超长上下文时,解码速度较上一代飙升了惊人的19.0 倍。在智能维度上,397B旗舰模型在MMLU-Pro、SuperGPQA等权威榜单上直接比肩甚至超越了闭源的GPT-5.2。另外,发布的Qwen3.5 Small系列,包含0.8B, 2B, 4B, 9B,则将这种极高智能密度的架构塞进了边缘设备甚至智能手机中,使得离线端侧AI正式升级为具备多模态实时交互的全能管家。

2 Qwen3-Coder-Next

Qwen3-Coder-Next拥有80B的总参数量,但通过极度稀疏的MoE路由,单次前向传递仅激活3B参数。最核心的架构跃升在于其混合布局设计:12 * (3 * (Gated DeltaNet -> MoE) -> 1 * (Gated Attention -> MoE))。这种架构打破了必须完全使用Softmax注意力的教条。引入Gated DeltaNet将庞大的历史序列压缩为固定大小的隐藏状态,彻底抹平了KV Cache的二次方内存增长曲线;同时保留少量传统注意力层确保精准信息检索。

配合基于可执行环境反馈的大规模强化学习训练,该模型在SWE-Bench等硬核代码基准上媲美体积大10到20倍参数模型的实力,展现出面对超长代码文件频繁查错、修复和回滚时叹为观止的推理韧性。

3 Qwen3-ASR

Qwen3-ASR是通义实验室推出的自动语音识别模型,同时发布1.7B和0.6B两个参数规模,支持多达52 种语言与方言,模型能力源自Qwen3-Omni音频理解分支,并针对工业级ASR场景优化了推理效率与吞吐量。

Qwen3-ASR彻底反思了传统大模型在做长语音对齐时的效率低下问题。其架构集成了一个基于大型语言模型底座的非自回归(Non-Autoregressive, NAR)时间戳预测器。因为是非自回归,模型无需等待上一个token生成即可并行预测整个时间序列的时间戳。这一架构使得0.6B参数的轻量级ASR在128并发下,仅需1秒即可精准转录和对齐2000秒时长的多语种录音,且延迟低至92毫秒。

在CommonVoice、AISHELL、LibriSpeech等多个多语言语音识别基准测试中,Qwen3-ASR 1.7B不仅优于同等参数量的其他开源模型,还与Whisper Large‑v3、Azure STT等商业方案表现持平,部分指标甚至更优。

4 Qwen3-TTS

Qwen3-TTS模型训练数据涵盖500万小时多语言语音,支持10种语言,以Apache 2.0协议开源。在实时互动场景下,Qwen3-TTS在架构上采用创新的双分词器流式处理机制,将高层语义规划与底层声学特征映射高度重叠处理,两套分词器可灵活切换,兼顾音质与实时性,专为流式优化,首包延迟低至 97ms。

Qwen3-TTS仅需3秒参考音频即可完美克隆音色,可通过自然语言控制音色、语调、语速,无需预设说话人ID,大幅降低个性化TTS门槛,在虚拟助手、有声书、配音自动化等场景具备商业价值。

5 Qwen3-VL-Embedding/Reranker

Qwen3-VL-Embedding/Reranker是基于Qwen3-VL基础模型构建的多模态嵌入与重排序系列。Embedding阶段利用 Qwen3-VL强大的底层特征提取能力构建双塔结构,将海量的异构数据(文字片段、图表截图、视频片段)映射为定长向量完成初筛;Reranker阶段采用计算密集的单塔结构进行极其精确的相关性打分。在MMEB-V2榜单上,该模型以77.8的综合高分排名全球第一,彻底重构了下一代搜索引擎的底层逻辑。

模型采用多阶段训练:先通过大规模对比预训练实现跨模态对齐,再用重排序蒸馏提升检索精度,并引入 Matryoshka表征学习,可灵活选择嵌入维度,无需重训。支持最长32ktoken上下文、30+种语言,提供2B和8B两种参数规模。

二、2025年超长上下文、全模态与细分领域突破

6 Qwen-Image-Layered

Qwen-Image-Layered不再生成单张合并的RGB图,而是直接输出多个语义解耦的RGBA图层,每个图层对应图像中独立的语义对象且自带透明通道。

开发了RGBA-VAE,将原本仅支持RGB的潜空间扩展到支持透明通道(Alpha)的四通道潜表征。发明了变量层分解多模态扩散Transformer(VLD-MMDiT),允许用户指定生成3到10个层,单次推理即可吐出物理隔离、语义解耦的RGBA 图层。模型输出可直接保存为PSD格式,实现了真正的工业级可编辑性。

7 QwenLong-L1.5

构建了「记忆增强架构」。对于超过256K的长文,模型转化为带有记忆存储模块的迭代智能体:一边阅读切片一边更新全局记忆摘要,并无缝融入即时推理窗口。发明了AEPO策略动态调节长序列RL的探索与利用平衡。在1M到4M的超长任务基准中追平GPT-5。

8 Qwen3-VL

模型底层直接支持256K超长多模态交错上下文输入,不再受传统VLM的「先文字后图片」或「图片数量上限」的约束。模型阵容覆盖Dense(2B/4B/8B/32B)和 MoE(30B-A3B/235B-A22B)六个尺寸,为不同算力场景提供灵活选择。引入VL-Thinking后,模型能够在隐层中展开视觉思维链,串联起长视频开头与结尾的逻辑关联,展现出类似人类侦探般的「跨时空因果推断」能力。

9 Qwen3Guard

Qwen3Guard是Qwen3系列配套的多语言安全护栏模型,模型覆盖119种语言与方言,提供0.6B/4B/8B三种参数规模,可根据服务器算力灵活部署。专为生产级LLM部署场景设计,提供了两种完全不同的运作模式,以适配不同的工程约束:

  • Generative Qwen3Guard:基于自回归语言模型,对完整的模型输入/输出进行三分类判定:安全(safe)、有争议(borderline)、不安全(unsafe),给出分类理由,适合对准确率要求高、可接受额外延迟的场景。

  • Stream Qwen3Guard:在解码器顶端附加轻量级分类头,在模型生成每个token时同步判断安全性,实现零额外延迟的流式实时安全监控,可在检测到不安全内容时立即中断生成。

10 Qwen3-Omni

Qwen3-Omni是通义千问系列目前全模态覆盖最广的模型,实现文本、图像、音频、视频四大模态同时达到SOTA 级别性能且无退化,在36个音频/音视频基准中拿下32项开源SOTA和22项整体SOTA,ASR能力超越Gemini-2.5-Pro、Seed-ASR、GPT-4o-Transcribe等模型。

采用Thinker-Talker MoE架构,Thinker负责多模态理解与决策,Talker负责实时语音流输出,解耦设计兼顾推理深度与低延迟,稀疏激活机制提升计算效率。同时支持多语言能力,文本理解覆盖119种语言、语音理解19种、语音生成10种,可处理最长40分钟连续音频,适配长会议转录、实时翻译等场景。

11 Qwen-Image

Qwen-Image核心突破两大扩散模型难题:复杂文字渲染与精确图像编辑。文字渲染上,多数模型仅支持基础英文,对中日韩等文字易出错。Qwen-Image 采用渐进训练:先学无文字图像生成,再学简单字母文字,最后攻克中文等复杂表意文字,实现精准笔画控制。

模型采用多任务联合训练,同时学习T2I(文本生成图像)、TI2I(文本+图像生成图像)和 I2I(图像到图像重建)任务并共享参数,提升指令理解与编辑能力;还对齐Qwen2.5-VL视觉编码器与MMDiT潜表征空间,有效迁移语言模型的语义理解能力。

12 Qwen3 Embedding

Qwen3 Embedding是GTE-Qwen(General Text Embeddings)系列的重大升级,底座从Qwen2.5切换为Qwen3 LLM,语言能力大幅提升。该系列涵盖Embedding与Reranker,提供0.6B/4B/8B三种参数规格,满足不同部署需求。

训练采用三阶段策略:先大规模无监督对比预训练,学习通用语义相似度;再用高质量标注数据监督微调,提升检索精度;最后通过模型合并融合多阶段/多任务checkpoint,增强跨任务鲁棒性、减少遗忘。模型合并是其核心方法论创新。

13 QwenLong-L1

QwenLong‑L1针对AI领域的长上下文领域核心迁移难题:如何将已通过强化学习训练、具备优秀短上下文推理能力的LRM(Language Reasoning Model)模型,无损平滑扩展到极长上下文场景。直接RL扩展易出现训练不稳定、奖励稀疏、推理能力退化等问题。QwenLong‑L1提出三阶段渐进式方案:

  • 热身SFT:用高质量长上下文数据做监督微调,让模型快速建立长文档理解基础

  • 课程引导分阶段RL:按上下文长度由短到长逐步提升训练难度,保证RL过程稳定

  • 难度感知回顾采样:定期回采高难度样本,避免长序列推理时遗忘简单多跳能力

该框架具备强通用性:任何已完成RL后训练的短上下文推理模型,均可通过此方案无缝适配长上下文,无需从头训练,显著降低研发成本。

14 QwenLong-CPRS

QwenLong-CPRS(Context Compression and Retrieval System)从动态压缩角度解决长上下文问题:推理前先压缩上下文,仅保留与问题相关信息,同时降低prefill计算开销与解决「中间丢失」问题。

核心为自然语言指令引导的动态优化,用户用自然语言描述查询意图,模型自适应保留关键内容,透明可控。支撑技术包括:语言引导动态优化、双向推理层、Token Critic打分机制、窗口并行推理。

支持4K~2M token全范围上下文,覆盖RAG到超长文档摘要。与QwenLong-L1互补:L1侧重训练提升推理长度,CPRS侧重推理时高效管理上下文,共同构成完整长上下文解决方案。

15 Qwen3 Technical Report

Qwen3系列覆盖0.6B到235B(Dense + MoE),将思考模式与非思考模式统一到同一框架,无需切换模型即可兼顾深度推理与快速响应。

Qwen3将复杂的链式推理(CoT)和低延迟日常对话无缝融合在单一模型中。模型会根据提示复杂度自动决定是否进入「Thinking Mode」。参数小至1.7B的基础模型在STEM测试中反超前代14B模型,旗舰版本更是展现了顶级的逻辑搜索内化能力。

16 An Empirical Study of Qwen3 Quantization

揭示了中等位宽量化对Qwen3的高效性,并警告了1-2 bit极端量化下隐式逻辑路径坍塌的风险,为端侧大模型部署提供了量化准则。

17 Open-Qwen2VL

UCSB、ByteDance、Nvidia联合提出的完全开源2B多模态LLM。仅用220 A100-40G GPU小时、29M图文对,以 Qwen2-VL官方预训练token数量的0.36%就超越了Qwen2-VL-2B的性能。核心技术包括低-高动态分辨率渐进训练策略与多模态序列打包,大幅提升了计算效率。

18 Qwen2.5-Omni

底层废除了语音转文本的级联,支持同时摄入四种模态特征(感知文本、图像、音频、视频),直接预测音频 Token。创新性的提出Thinker-Talker双模块架构:Thinker负责文本推理与生成,Talker实时转为自然语音。流式处理依托音视频编码器分块感知,实现低延迟实时对话。TMRoPE(时间对齐多模态 RoPE) 统一跨模态时序位置编码,大幅提升音视频理解的时序一致性。在硬核逻辑测试中证明了保留声音原生韵律特征远优于文本扁平化。

19 Qwen2.5-VL

Qwen2.5-VL在视觉识别、目标定位、文档解析、长视频理解四大维度全面升级:采用动态分辨率 + 绝对时间编码,支持数小时超长视频与秒级事件精确定位;基于原生ViT从头训练并结合Window Attention,大幅提升高分辨率图像处理效率;强化结构化数据提取,可精准解析发票、表格、图表等复杂文档,并支持直接输出绝对空间边界框与绝对时间坐标,能作为视觉执行代理操作计算机与手机GUI,在DocVQA上达96.5分,性能对齐GPT-4o。

20 Qwen2.5-1M

Qwen2.5结合ABF、稀疏注意力与分块预填充机制,突破1M Token内存墙,百万上下文预填充速度提升3--7倍,多项指标超越GPT-4o-mini。

三、2024年参数规模化与时空视觉的突破

21 Qwen2.5 Technical Report

Qwen2.5预训练数据从7T扩展至18T token,搭配超100万样本精细SFT与多阶段强化学习(离线DPO + 在线 GRPO),覆盖0.5B~72B全规格,长文本生成、结构化数据分析与指令跟随能力大幅提升。通过海量高质量数据飞轮与奖励模型(RM)对齐,在STEM领域展现出惊人能力,确立了当时开源生态的绝对标杆。

22 Qwen2.5-Coder

这款代码专用旗舰模型基于5.5T token代码数据持续预训练,覆盖0.5B--32B全尺寸规格,在代码生成、补全、推理、修复等十余项基准上实现SOTA。通过数据清洗、可扩展合成数据与均衡混合策略,兼顾代码专精与通用理解、数学推理能力。其中32B版本代码能力对齐乃至超越GPT‑4o,并验证了代码模型需借助编译器执行反馈,构建内部程序状态机模拟的核心思路。

23 Qwen2-VL

提出Naive Dynamic Resolution机制,可动态处理任意分辨率图像,无需裁剪或填充。M-RoPE多模态RoPE统一文本、图像、视频位置编码,将时间、高度、宽度解耦,构建三维时空坐标系,实现真正的图文视频一体化处理,原生支持20分钟以上高清视频理解。旗舰模型Qwen2-VL-72B性能对标GPT-4o等顶尖商业模型。

24 Qwen2-Audio

以自然语言提示简化预训练流程,替代传统标签体系;无需系统提示即可自动切换语音聊天(自然对话)与音频分析(声音、音乐、场景理解)模式,摒弃复杂层级标签,实现双轨运行。模型可在统一框架中整合多维度音频感知能力,能并发理解同一音频片段中的环境音、多人对话及语音命令。

25 Qwen2 Technical Report

Qwen2覆盖0.5B至72B规格及MoE 架构,超越多数同规模开源模型,作为Qwen2/2.5时代开篇之作,奠定后续迭代技术基座。其引入MoE与GQA大幅降低推理显存占用,旗舰Qwen2-72B在MMLU达 84.2 分,在多语言、编程、数学、推理任务中全面领先,印证了暴力数据与模型稀疏化的有效性。

四、2023年基座奠基与初步探索

26 Qwen-Audio

Qwen音频第一代模型是Qwen系列首个通用音频理解预训练模型,覆盖30+任务,涵盖语音识别、自然声分类、音乐及歌曲理解。提出层级标签多任务训练框架,通过共享标签与专用标签解决多任务一对多干扰问题,首次验证单模型可处理30+音频任务,为后续Qwen2‑Audio与Qwen2.5‑Omni及全模态体系奠定基础。

27 Qwen Technical Report

作为Qwen家族的起点,2023年9月发布的初代技术报告,确立了「预训练基座语言模型+RLHF对齐」的核心路线,初代即融入工具使用与规划能力,奠定了后续28个月从Qwen到Qwen3、从文本到全模态的演进基础。该模型采用Dense架构,中文逻辑处理与代码解释器代理能力出色,向全球证明千亿级开源模型具备匹敌早期GPT-4的基础潜力。

相关推荐
AI-Frontiers17 天前
从ResNet到mHC:DeepSeek重构残差连接,额外开销仅6.7%,附复现代码
大模型训练
AI-Frontiers1 个月前
3年,从0到全球领跑:万字长文拆解DeepSeek大模型技术演进
大模型训练
TGITCIC1 个月前
垂域大模型评估不再靠“感觉”:用结构化测试集+自动化打分实现效果可量化
自动化·lora·微调·ai训练·训练·大模型训练·大模型ai
AI-Frontiers1 个月前
收藏!LLM开发全链路:5大步骤+15大框架,从数据治理到RLHF一文通关
大模型训练
小毅&Nora2 个月前
【人工智能】【大模型训练】② AI解剖室GPipe & PipeDream:解剖大模型训练的“卡顿病灶“
人工智能·分布式架构·大模型训练·gpipe·pipedream
AI-Frontiers2 个月前
小白也能看懂的LLM-RL算法:PPO/DPO/GRPO/GSPO
强化学习·大模型训练
学习是生活的调味剂3 个月前
大模型训练技术总结
人工智能·大模型训练
卫玠_juncheng3 个月前
langchain1.0rag知识库项目分享:从数据清洗到模型微调的全方位教程
大模型·agent·rag·大模型训练
猿类崛起@3 个月前
2025秋招LLM大模型多模态面试题:110道大模型面试常见问题及答案,助你拿下AI工程师岗位!
人工智能·机器学习·ai·性能优化·大模型·prompt·大模型训练