【MLLM】Qwen3.5模型

note

✦ 基于混合结构,397B总参/17B激活,能力匹配 >1T 参数的 Qwen3-Max;

✦ 原生多模态设计,同量级下多模态任务表现优于 Qwen3-VL;

✦ 覆盖 201 种语言;

✦ 在代码生成、智能体推理与多模态理解方面表现卓越;

文章目录

一、Qwen3.5模型

基本信息

  • 类型:带视觉编码器的因果语言模型
  • 训练阶段:预训练与后训练

语言模型参数

  • 参数总量:3970亿
  • 激活参数量:170亿
  • 隐藏层维度:4096
  • Token嵌入维度:248320(已填充)
  • 层数 :60
    • 隐藏层结构
      15 * (3 * (门控 DeltaNet -> MoE) -> 1 * (门控注意力 -> MoE))

门控 DeltaNet 模块

  • 线性注意力头数量
    • V(值)头:64
    • QK(查询-键)头:16
  • 头维度:128

门控注意力模块

  • 注意力头数量
    • Q(查询)头:32
    • KV(键-值)头:2
  • 头维度:256
  • 旋转位置嵌入维度:64

混合专家系统(MoE)

  • 专家总数:512
  • 激活专家数:10个路由专家 + 1个共享专家
  • 专家中间层维度:1024

输出与训练

  • 语言模型输出维度:248320(已填充)
  • MTP(多步训练策略):采用多步训练

上下文长度

  • 原生支持:262,144个token
  • 可扩展至:最多1,010,000个token

1、效率优化

在 32k 上下文长度下,Qwen3.5-397B-A17B 的吞吐量达到 Qwen3-Max 的 8.6 倍,同时保持相当的性能表现。这得益于 Next 混合架构的三项关键设计:

  • 更高稀疏度的 MoE:单次推理仅激活 17B 参数,按需调用专家模块;
  • 门控 DeltaNet 与门控注意力混合机制:兼顾长序列处理速度与推理质量;
  • 多 token 预测:单次前向推理预测多个 token,显著提升生成效率

2、泛化能力提升

在同等规模下,Qwen3.5-397B-A17B 超越 Qwen3-VL,得益于三项设计:

  • 原生多模态融合:通过训练阶段的早期文本-视觉融合,视觉与语言在统一表征空间中联合学习,提升 GUI 理解、视频分析等跨模态任务的连贯性;
  • 多语言覆盖扩展:训练数据覆盖语言从 119 种扩展至 201 种,强化全球用户的语言表达理解;
  • 词表扩容至 250k:编解码效率提升 10--60%,尤其改善长尾语言与复杂表达的 tokenization 效果。

3、多模态能力提升

过去的多模态模型通常是:"视觉编码器 + 语言模型"的拼接:图片先被转成特征,再喂给语言模型理解。我们在 Qwen3.5-397B-A17B 训练阶段就把文本和视觉数据融合,让模型在统一的空间里同时学习"看"和"说"。一个模型,端到端,全搞定------从视觉推理、空间定位到 GUI 操作与视频理解,任务连贯性显著提升。

依托覆盖图像、视频、STEM 与 GUI 的多元视觉数据训练,Qwen3.5 在同等规模下超越 Qwen3-VL,真正迈向原生多模态 Agents。

二、LLM infra优化

通过训推分离架构的解耦式设计,该框架显著提升了硬件利用率,实现了动态负载均衡和细粒度的故障恢复。配合 FP8 训推、Rollout 路由回放、投机采样以及多轮 Rollout 锁定等技术,我们进一步优化了系统吞吐,提高了训推一致性。

通过系统与算法协同设计,该框架在严格控制样本陈旧性的基础上有效缓解了数据长尾问题,提高了训练曲线的稳定性和性能上限。

框架面向原生智能体工作流设计,能够实现稳定、无缝的多轮环境交互,消除了框架层的调度中断。这种解耦设计使得系统能够扩展百万级规模的 Agent 脚手架与环境,从而显著增强模型的泛化能力。上述优化最终取得了 3×--5× 的端到端加速,展现了卓越的稳定性、高效率与可扩展性。

Reference

1\] [Qwen3.5:更少激活参数,更强智能体能力](https://mp.weixin.qq.com/s/8GE07MflCJcS6IcJFkd68g) \[2\] https://github.com/QwenLM/Qwen3.5?spm=a2ty_o06.30285417.0.0.72bcc921bSC8dm\&file=Qwen3.5 \[3\] https://qwen.ai/blog?id=qwen3.5 \[4\] https://modelscope.cn/models/Qwen/Qwen3.5-397B-A17B

相关推荐
威化饼的一隅22 分钟前
【大模型LLM学习】从强化学习到GRPO【下】
大模型·llm·agent·强化学习·智能体·grpo
爱听歌的周童鞋4 小时前
Learn-Claude-Code | 笔记 | Tools & Execution | s01 The Agent Loop | s02 Tools
llm·agent·note·claude code·tool use·agent loop
加斯顿工程师6 小时前
Windows系统使用Ollama本地化部署Qwen3.5-9B模型教程
windows·大模型·本地部署·ollama·qwen3.5
靴子学长8 小时前
Qwen3.5 架构手撕源码
算法·架构·大模型
怕浪猫8 小时前
第6章 链(Chains):构建可组合的工作流
langchain·llm·ai编程
JavaGuide9 小时前
万字拆解 LLM 运行机制:Token、上下文与采样参数
ai·llm·prompt·ai编程·token
yuhuofei20219 小时前
【大模型】1.基础概念
大模型
CHPCWWHSU9 小时前
模型加载与初始化(3)
llm·llama·cpp·cudatoolkit
威化饼的一隅9 小时前
【大模型LLM学习】从强化学习到GRPO【上】
大模型·llm·agent·强化学习·智能体·grpo
chaors9 小时前
Agent来了0x02:第一个实战小demo -铁路智能订票小助手
llm·agent·ai编程