本报告聚焦通用语言理解场景(纯文本,无多模态),基于 MMLU、LMArena、AA Intelligence Index 等权威基准,对当前主流 AI 大模型进行系统性评估与选型建议。报告涵盖 DeepSeek V4、GLM-5、Qwen3.5、MiniMax M2 等十款模型,为技术选型提供决策依据。
1. 通用语言理解场景
不涉及图片、视频、音频,纯粹的文本理解和生成。看 MMLU、LMArena、AA Intelligence Index 这些基准。
1.1 模型对比
|-----------------------|----------------------|-----------------------|----------------|------------------|-------------------|----------------|------------------|----------------------|---------------|------------------|
| 项目 | DeepSeek V4-Pro | DeepSeek V4-Flash | GLM-5 | MiniMax M2.5 | DeepSeek V3.1 | Qwen3-235B | Qwen3.5-397B | Kimi-K2-Thinking | Kimi-K2.5 | MiniMax M2.7 |
| 参数量 | ~1.6T MoE | MoE | 744B MoE | MoE | 671B MoE | 235B MoE | 397B MoE(激活17B) | ~1T MoE | MoE (w4a8) | MoE |
| 量化格式 | W4A8 | W8A8 | W4A8/W8A8/BF16 | FP8/W8A8 | W8A8/W4A8 | W8A8/BF16 | [注2] | BF16 | W4A8 | FP8/W8A8 |
| W4A8 参考显存 | ~900GB | ~470GB | ~422GB | ~650GB | ~741GB | ~280GB | ~450GB | ~500GB | ~500GB | ~650GB |
| 最大上下文 | 1M | 1M | 200k | 192k | 240k | 256k | 1M | 128k | 32k | 192k |
| MMLU | ~88.7 [注9] | ~88.7 [注9] | [注1] | [注1] | ~88.5 [注3] | ~85 | ~91.5(开源第一) | [注10] | [注10] | [注10] |
| AA Intelligence Index | 52分 [注4] | 47分 [注4] | 50分(开源最高) | [注1] | [注1] | [注1] | [注1] | [注10] | [注10] | [注10] |
| LMArena | 文本开源第2/代码开源第3 [注4] | [注1] | 开放模型第1 | [注1] | [注1] | [注1] | [注1] | [注10] | [注10] | [注10] |
| 推理速度 | [注1] | [注1] | [注1] | 100 TPS | [注1] | [注1] | [注1] | [注10] | [注10] | [注10] |
1.2 选型建议
DeepSeek V4-Pro --- 综合最强
V3 的正统升级,知识、推理、编程全面超越 V3。1M 上下文,是当前开源通用模型的天花板。
DeepSeek V4-Flash --- 轻量首选
V4 的精简版,W8A8 量化后显存约 470GB。1M 上下文,在"单节点能跑"这个前提下性价比最高。
GLM-5 --- 综合评测开源第一
AA Intelligence Index 50 分,LMArena 文本/代码竞技场开放模型第一,整体跟 Claude Opus 4.5 和 GPT-5.2 (xhigh) 一个档次。w4a8 量化后显存约 422GB。
MiniMax M2.5 --- 成本最低
100 TPS,跑一小时 1 美金,是 Opus/GPT5 价格的 1/10 到 1/20。对成本敏感的场景首选。
DeepSeek V3.1 --- 最稳
部署经验最丰富,240k 上下文,W8A8 量化后显存约 741GB。适合追求稳定、不想踩坑的生产环境。
Qwen3-235B-A22B --- 中等规模 MoE
235B MoE,256k 上下文。在 MoE 模型中部署灵活性较好,W8A8 量化后显存约 280GB。
Qwen3.5-397B-A17B --- MMLU 开源第一
MMLU ~91.5,开源模型里最高。397B MoE 激活仅 17B,1M 上下文,支持 201 种语言,原生多模态融合架构。如果同时需要多模态能力,这个模型比 Qwen3-235B 更合适。
Kimi-K2-Thinking --- 推理专精
混合思维 MoE 架构,适合需要深度推理的通用语言理解任务。
Kimi-K2.5 --- 原生多模态 Agent
原生多模态 Agent 模型,在约 15 万亿混合视觉与文本 token 上持续预训练。支持即时模式与思维模式,兼具对话与 Agent 能力。
MiniMax M2.7 --- Agent 工作流
M2.7 专为复杂 Agent 工作流设计。适合需要工具调用、搜索增强的通用语言理解场景。
数据说明与注释
注1\] 标记"---"表示该模型官方未公开此项数据。 \[注2\] Qwen3.5-397B-A17B 部分配置参数暂未公开。 \[注3\] DeepSeek V3.1 MMLU 数据引用自 V3 技术报告(\~88.5)。 \[注4\] AA Intelligence Index 来源:Artificial Analysis 2026年4月评测。LMArena 来源:Arena.ai 2026年4月排名。 \[注9\] DeepSeek V4 系列数据引用自 V4-Flash-Base 第三方测评。 \[注10\] Kimi-K2-Thinking / Kimi-K2.5 / MiniMax M2.7 截至报告日期暂无公开基准数据。 ### ******官方参考依据****** * **DeepSeek V4 技术报告:** https://github.com/deepseek-ai/DeepSeek-V4 * **DeepSeek V4 HuggingFace:** https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro * **DeepSeek V4-Flash HuggingFace:** https://huggingface.co/deepseek-ai/DeepSeek-V4-Flash * **DeepSeek V3.1 HuggingFace:** https://huggingface.co/deepseek-ai/DeepSeek-V3.1 * **DeepSeek V3 技术报告:** https://github.com/deepseek-ai/DeepSeek-V3 * **GLM-5 技术报告:** https://github.com/THUDM/GLM-5 * **GLM-5 HuggingFace:** https://huggingface.co/THUDM/GLM-5 * **MiniMax M2.5 官方公告:** https://www.minimax.io/news * **MiniMax M2 HuggingFace:** https://huggingface.co/MiniMaxAI/MiniMax-M2.5 * **Qwen3-235B HuggingFace:** https://huggingface.co/Qwen/Qwen3-235B-A22B * **Qwen3.5 官方博客:** https://qwen.ai/blog?id=qwen3.5 * **Qwen3.5-397B HuggingFace:** https://huggingface.co/Qwen/Qwen3.5-397B-A17B * **Kimi-K2 技术报告:** https://github.com/moonshotai/Kimi-K2 * **Kimi-K2 HuggingFace:** https://huggingface.co/moonshotai/Kimi-K2-Thinking * **Kimi-K2.5 HuggingFace:** https://huggingface.co/moonshotai/Kimi-K2.5 * **MiniMax M2.7 官方公告:** https://www.minimax.io/news * **Artificial Analysis Intelligence Index:** https://artificialanalysis.ai * **LMArena 竞技场:** https://lmarena.ai * **MMLU 基准:** https://github.com/hendrycks/test