【MLLM】Qwen3.5模型

note

✦ 基于混合结构,397B总参/17B激活,能力匹配 >1T 参数的 Qwen3-Max;

✦ 原生多模态设计,同量级下多模态任务表现优于 Qwen3-VL;

✦ 覆盖 201 种语言;

✦ 在代码生成、智能体推理与多模态理解方面表现卓越;

文章目录

一、Qwen3.5模型

基本信息

  • 类型:带视觉编码器的因果语言模型
  • 训练阶段:预训练与后训练

语言模型参数

  • 参数总量:3970亿
  • 激活参数量:170亿
  • 隐藏层维度:4096
  • Token嵌入维度:248320(已填充)
  • 层数 :60
    • 隐藏层结构
      15 * (3 * (门控 DeltaNet -> MoE) -> 1 * (门控注意力 -> MoE))

门控 DeltaNet 模块

  • 线性注意力头数量
    • V(值)头:64
    • QK(查询-键)头:16
  • 头维度:128

门控注意力模块

  • 注意力头数量
    • Q(查询)头:32
    • KV(键-值)头:2
  • 头维度:256
  • 旋转位置嵌入维度:64

混合专家系统(MoE)

  • 专家总数:512
  • 激活专家数:10个路由专家 + 1个共享专家
  • 专家中间层维度:1024

输出与训练

  • 语言模型输出维度:248320(已填充)
  • MTP(多步训练策略):采用多步训练

上下文长度

  • 原生支持:262,144个token
  • 可扩展至:最多1,010,000个token

1、效率优化

在 32k 上下文长度下,Qwen3.5-397B-A17B 的吞吐量达到 Qwen3-Max 的 8.6 倍,同时保持相当的性能表现。这得益于 Next 混合架构的三项关键设计:

  • 更高稀疏度的 MoE:单次推理仅激活 17B 参数,按需调用专家模块;
  • 门控 DeltaNet 与门控注意力混合机制:兼顾长序列处理速度与推理质量;
  • 多 token 预测:单次前向推理预测多个 token,显著提升生成效率

2、泛化能力提升

在同等规模下,Qwen3.5-397B-A17B 超越 Qwen3-VL,得益于三项设计:

  • 原生多模态融合:通过训练阶段的早期文本-视觉融合,视觉与语言在统一表征空间中联合学习,提升 GUI 理解、视频分析等跨模态任务的连贯性;
  • 多语言覆盖扩展:训练数据覆盖语言从 119 种扩展至 201 种,强化全球用户的语言表达理解;
  • 词表扩容至 250k:编解码效率提升 10--60%,尤其改善长尾语言与复杂表达的 tokenization 效果。

3、多模态能力提升

过去的多模态模型通常是:"视觉编码器 + 语言模型"的拼接:图片先被转成特征,再喂给语言模型理解。我们在 Qwen3.5-397B-A17B 训练阶段就把文本和视觉数据融合,让模型在统一的空间里同时学习"看"和"说"。一个模型,端到端,全搞定------从视觉推理、空间定位到 GUI 操作与视频理解,任务连贯性显著提升。

依托覆盖图像、视频、STEM 与 GUI 的多元视觉数据训练,Qwen3.5 在同等规模下超越 Qwen3-VL,真正迈向原生多模态 Agents。

二、LLM infra优化

通过训推分离架构的解耦式设计,该框架显著提升了硬件利用率,实现了动态负载均衡和细粒度的故障恢复。配合 FP8 训推、Rollout 路由回放、投机采样以及多轮 Rollout 锁定等技术,我们进一步优化了系统吞吐,提高了训推一致性。

通过系统与算法协同设计,该框架在严格控制样本陈旧性的基础上有效缓解了数据长尾问题,提高了训练曲线的稳定性和性能上限。

框架面向原生智能体工作流设计,能够实现稳定、无缝的多轮环境交互,消除了框架层的调度中断。这种解耦设计使得系统能够扩展百万级规模的 Agent 脚手架与环境,从而显著增强模型的泛化能力。上述优化最终取得了 3×--5× 的端到端加速,展现了卓越的稳定性、高效率与可扩展性。

Reference

1\] [Qwen3.5:更少激活参数,更强智能体能力](https://mp.weixin.qq.com/s/8GE07MflCJcS6IcJFkd68g) \[2\] https://github.com/QwenLM/Qwen3.5?spm=a2ty_o06.30285417.0.0.72bcc921bSC8dm\&file=Qwen3.5 \[3\] https://qwen.ai/blog?id=qwen3.5 \[4\] https://modelscope.cn/models/Qwen/Qwen3.5-397B-A17B

相关推荐
量子位14 小时前
科研AI出了个狠角色:开源30B小模型,硬刚Gemini和Claude
llm·claude·gemini
DigitalOcean15 小时前
如何在云端运行Kimi K2.5:从配置到部署全攻略
llm·aigc
手机不死我是天子21 小时前
拆解大模型三:你不会真以为 Attention 是大模型的主角吧
llm
手机不死我是天子2 天前
拆解大模型二:Transformer 最核心的设计,其实你高中就学过
人工智能·llm
数据智能老司机3 天前
构建自然语言与大语言模型(LLM)流水线——将组件整合起来:面向不同使用场景的 Haystack Pipeline
llm·agent
数据智能老司机3 天前
构建自然语言与大语言模型(LLM)流水线——使用自定义组件进行 Haystack Pipeline 开发
llm·agent
gustt3 天前
探索MCP协议:构建高效的LLM工具集成系统
llm·agent·mcp
神秘的猪头3 天前
🚀 React 开发者进阶:RAG 核心——手把手带你玩转 Milvus 向量数据库
数据库·后端·llm
哈里谢顿3 天前
LangGraph 框架完全指南:构建生产级 AI 工作流
langchain·llm
UIUV4 天前
Splitter学习笔记(含RAG相关流程与代码实践)
后端·langchain·llm