全球开源大模型杭州霸榜被终结,上海MiniMax M2发布即爆单,百万Tokens仅需8元人民币

开源模型王座再次易主,依旧是国产模型!

不过之前霸榜的 DeepSeek 和 Qwen 来自杭州,现在变成上海的 MiniMax 了。

在第三方评测机构 Artificial Analysis 的测试中,MiniMax M2 以 61 分获得了开源模型第一,紧随 Claude 4.5 Sonnet。

官方介绍,MiniMax M2 专为智能体和编程而生,编程能力和 Agent 表现出众。

而且经济高效,推理速度是 Claude 3.5 Sonnet 的两倍,API 价格却只有 8%。

MiniMax 表示,智能水平、速度和成本在过去被视为 "不可能三角",但随着 M2 的出世,这个三角被打破了。

目前,M2 的完整模型权重已经开源,采用 MIT 协议,在线 Agent 平台和 API 也限时免费。

8% 成本实现 Claude 级水平

MiniMax M2 是一个稀疏度较高的 MoE 模型,总参数量 230B,激活参数量仅有 10B。

网友表示 10B 的激活参数运行起来会非常快,如果配上 Cerebras 或者 Groq 这样的推理加速平台,有望跑到每秒上千 Token。

另一个特色是采用了交错的思维格式,使得模型能够规划和验证跨多个对话的操作步骤,这对于 Agent 推理至关重要。

如开头介绍,MiniMax 官方将 M2 定义为一个专为智能体和编程而生的模型。

它专为端到端开发工作流程而构建,而且表现出对复杂、长链工具调用任务的出色规划和稳定执行能力,支持 Shell、浏览器、Python 代码解释器和各种 MCP 工具的调用。

在 Agent 最关键的三个能力------编程能力、工具使用能力和深度搜索能力上,M2 在工具使用和深度搜索方面都不逊于海外顶尖模型,编程能力也在国内名列前茅。

综合表现上,M2 在 Artificial Analysis 的测试中,获得了总排名第五、开源第一的成绩。

该测试使用了 10 个热门数据集,包括 MMLU Pro、GPQA Diamond、人类最后测试、LiveCodeBench 等。

而 M2 的定价是 0.3 美元 / 2.1 人民币每百万输入 Token,1.2 美元 / 8.4 人民币每百万输出 Token,只要 Claude 3.5 Sonnet 的 8%。

以 Artificial Analysis 的成绩为基准,MiniMax 绘制了一张图来比较各大模型性价比(横轴越向右成本越低)。

在线推理服务的速度则可达每秒 100Token,MiniMax 也画了一张图体现以速度衡量的性价比。

同时,MiniMax 团队还针对智能体、全栈开发和 Terminal Use 三项任务对 M2 和其他模型进行了一对一比拼。

结果 M2 相比于 Claude Sonnet 4.5、GLM 4.6、Kimi-K2 以及 DeepSeek V3.2 均有极高的 Win+Tie 比例,同时成本非常低廉。

为了更直观地体现 M2 的 Agent 能力,MiniMax 已经把 M2 部署到了 Agent 平台,限时免费使用,按官方说法,免费期直到服务器扛不住为止。

同时在该平台上,也展示了许多 MiniMax Agent 的现成作品。

MiniMax Agent:能写程序,还会做 PPT

利用 MiniMax 的 Agent 平台,可以写出各式各样的网页或在线应用。

当然像很多经典游戏,也都能用它在 Web 环境当中复刻并直接部署。

甚至有网友创作的在线五子棋游戏平台,不仅有游戏本体,还引入了在线对战、观战、在线聊天,甚至是用户注册等功能。

除了编程,也可以生成各种主题的调研报告或者 PPT。

在 X 上,也有网友展示了自己用 M2 Agent 编程的实战成果,仅通过三轮反馈就完成了一个足球小游戏的制作。

可以说效果非常不错。

模型表现之外,M2 使用的注意力机制,也引发了网友们的讨论。

混合注意力 vs 全注意力

有网友从 vllm 的代码当中看出了 M2 的更多技术细节,表示 M2 采用类似 GPT-OSS 的全注意力和滑动窗口注意力(SWA)的混合机制,

不过 MiniMax NLP 负责人指正,表示一开始确实想在预训练阶段引入 SWA,但发现会造成性能损失,所以最后使用的是全注意力。

Falcon 团队的技术人员看了之后表示,他们在训练模型的时候也发现了同样的现象,SWA 混合注意力会降低模型性能,这和一些论文的研究不符。

在部分论文和实践中,SWA 在提升效率的同时可以保持性能,如 Mistral 和谷歌 Gemma 模型的相关研究均支持此观点。

但 MiniMax 的实际测试显示其在长程依赖任务上存在局限。

同时,M2 也没有采用 Lightning Attention(线性注意力的一种变体),原因也是因为性能损失。

同样与之相反,有论文主张线性注意力在长序列任务中更具优势。

到底哪种路线更优,可能还是要看具体需求,但至少从 M2 的表现上看,MiniMax 选择的的确是一种适合自己的方式。

Agent 平台:agent.minimax.io

Hugging Face:huggingface.co/MiniMaxAI/M...

参考链接:

1\][www.minimax.io/news/minima...](https://link.juejin.cn?target=https%3A%2F%2Fwww.minimax.io%2Fnews%2Fminimax-m2 "https://www.minimax.io/news/minimax-m2") \[2\][venturebeat.com/ai/minimax-...](https://link.juejin.cn?target=https%3A%2F%2Fventurebeat.com%2Fai%2Fminimax-m2-is-the-new-king-of-open-source-llms-especially-for-agentic-tool "https://venturebeat.com/ai/minimax-m2-is-the-new-king-of-open-source-llms-especially-for-agentic-tool") \[3\][x.com/jessi_cata/...](https://link.juejin.cn?target=https%3A%2F%2Fx.com%2Fjessi_cata%2Fstatus%2F1982936050256490968 "https://x.com/jessi_cata/status/1982936050256490968") \[4\][x.com/JingweiZuo/...](https://link.juejin.cn?target=https%3A%2F%2Fx.com%2FJingweiZuo%2Fstatus%2F1982822979030692356 "https://x.com/JingweiZuo/status/1982822979030692356") **欢迎在评论区留下你的想法!** --- **完** ---

相关推荐
一见已难忘2 小时前
昇腾加持下的Llama 3.2:开源大模型推理性能1B英文原版与3B中文微调模型实测对比
人工智能·开源·llama·gitcode·昇腾
Vespeng4 小时前
利用周末写一个小工具:多设备预览图生成
后端·开源·go
嗝o゚4 小时前
Flutter + 鸿蒙实现多模态智能终端实战:语音+手势+触控融合
flutter·华为·开源
PBitW4 小时前
工作两年,从自己造轮子,变成使用开源项目!
前端·开源·若依·为什么使用开源项目·不自己造轮子
周杰伦_Jay5 小时前
【Agent智能体】开发流程与开源框架对比(GitHub热门项目分析)
开源·github
UpgradeLink5 小时前
开源Electron应用GitHubActions自动化部署与升级指南
electron·开源·自动化
lusasky5 小时前
开箱即用的开源智能体产品全览
开源·智能体
I'm a winner6 小时前
FreeRTOS 简介:轻量开源的嵌入式
开源
lusasky6 小时前
2025年高质量开源智能体框架全景
开源·智能体
南知意-6 小时前
开源高性能IM+集成AI能力,基于SpringBoot +Tauri+Vue 3+TypeScript支持全平台与丰富会话模式
typescript·开源·springboot·tauri·工具·im·软件