2026年4月22日,通义千问团队正式开源Qwen3.6‑27B------一款270亿参数稠密多模态大模型,在主流智能体编码基准上全面超越上代开源旗舰Qwen3.5‑397B‑A17B,兼顾顶级性能与轻量化部署,成为开发者的理想选择。
一、核心定位:小参数,大能力
Qwen3.6‑27B是稠密架构 开源模型,无MoE路由复杂度,部署简单、显存友好,同时保持原生多模态 与思考/非思考双模式,在27B主流规模上做到旗舰级编码与推理表现。
核心亮点:
- 智能体编码性能登顶,全面超越上代397B MoE旗舰
- 文本+多模态 reasoning 强劲,媲美数倍参数模型
- 稠密架构易部署,适配广泛落地场景
- 全开源权重,支持自部署、API调用、多平台体验
二、性能炸裂:编码能力全面领跑
Qwen3.6‑27B在所有核心编码基准上实现突破,以27B参数超越更大规模模型,数据如下:
| 基准 | Qwen3.6‑27B | Qwen3.5‑397B‑A17B | 亮点 |
|---|---|---|---|
| SWE‑bench Verified | 77.2 | 76.2 | 真实工程任务领先 |
| Terminal‑Bench 2.0 | 59.3 | 52.5 | 终端编码大幅提升 |
| SkillsBench (Avg5) | 48.2 | 30.0 | 编码技能断层领先 |
| SWE‑bench Multilingual | 71.3 | 69.3 | 多语种编码更强 |
| QwenWebBench (Elo) | 1487 | 1186 | 前端生成接近顶级闭源 |
在知识与推理上同样出色:
- GPQA Diamond 87.8、C‑Eval 91.4、MMLU‑Redux 93.5
- 数学竞赛AIME26达94.1,奥数级推理能力突出
三、原生多模态:图文视频全链路理解
作为统一多模态模型,Qwen3.6‑27B支持图像、视频、文档联合理解,双模式无缝切换,在多模态基准表现优异:
- MMMU 82.9、RealWorldQA 84.1、VideoMME 87.7
- 文档OCR、空间理解、视觉智能体、安卓交互等场景全面增强
- 单Checkpoint兼顾思考与非思考,推理更灵活
四、开箱即用:部署与生态全覆盖
Qwen3.6‑27B提供全链路接入方案,从体验到生产一步到位:
- 在线体验:Qwen Studio直接交互
- 开源权重:Hugging Face、ModelScope下载
- API服务:阿里云Model Studio即将上线,兼容OpenAI/Anthropic协议
- 编码助手:无缝对接OpenClaw、Claude Code、Qwen Code,终端编码更高效
团队提供完整API示例与配置文件,支持enable_thinking/preserve_thinking,智能体任务效果更佳。
五、稠密模型新标杆
Qwen3.6‑27B证明:精良训练的稠密模型,可在实用规模上超越超大参数前辈。它以27B亲民体量,带来旗舰编码、强推理、原生多模态与极简部署,补齐Qwen3.6开源家族版图,为开发者、企业与研究者提供高性价比、易落地的新一代基座大模型。
Modelscope地址:https://modelscope.cn/models/Qwen/Qwen3.6-27B
更多详细内容可参考:https://qwen.ai/blog?id=qwen3.6-27b