MiniMax-M1 模型是由 MiniMax 公司6月17日全新推出的大语言模型,使用 hybrid Mixture-of-Experts (MoE) 架构,并使用了 lightning attention 机制。 MiniMax 公司称其为世界上第一个开源的大规模混合架构的推理模型。
MiniMax-M1 模型原生支持 1 百万个 token 的上下文长度, 并且 lightning attention 机制使计算能够高效扩展,与 DeepSeek R1 相比,MiniMax-M1 在生成长度为 10 万个 token 时消耗的 FLOPs 仅为 DeepSeek R1 的 25%。这些特性使 M1 特别适合需要处理长输入和广泛思考的复杂任务。
由于 MiniMax-M1 模型的参数量达 456B,需要至少 8*96G 显存的计算资源进行推理,云端部署成为企业用户和开发者们部署 MiniMax-M1 时的优先选择。阿里云 PAI-Model Gallery 已同步接入 MiniMax-M1 模型,提供企业级部署方案。
PAI-Model Gallery 简介
PAI-Model Gallery 是阿里云人工智能平台 PAI 的产品组件,它集成了国内外 AI 开源社区中优质的预训练模型,涵盖了 LLM、AIGC、CV、NLP 等各个领域。通过 PAI 对这些模型的适配,用户可以以零代码方式实现从训练到部署再到推理的全过程,简化了模型的开发流程,为开发者和企业用户带来了更快、更高效、更便捷的 AI 开发和应用体验。
PAI-Model Gallery 访问地址:pai.console.aliyun.com/#/quick-sta...
✅ 零代码一键部署
✅ 自动适配云资源
✅ 部署后开箱即用API
✅ 全流程运维托管
✅ 企业级安全 数据不出域

一键部署 MiniMax-M1
- 在 PAI-Model Gallery 模型广场找到 MiniMax-M1 模型,或通过链接直达该模型:pai.console.aliyun.com/?regionId=c...

- 在模型详情页右上角点击「部署」,在选择计算资源后,即可一键完成模型的云上部署。

- 部署成功后,在服务页面可以点击"查看调用信息"获取调用的 Endpoint 和 Token,想了解服务调用方式可以点击预训练模型链接,返回模型介绍页查看调用方式说明。

- 使用推理服务:您可以使用 API 调用模型服务,也可以使用 PAI 平台提供的在线调试功能,此外您还可以使用 PAI 平台提供的 WebUI 界面与模型进行交互。



更多模型支持
PAI-Model Gallery 持续提供开源社区热门模型快速部署、训练、评测实践。
- 云上一键部署 Qwen3 全尺寸模型:mp.weixin.qq.com/s/20xc0g-h6...
- DeepSeek-R1 推理性能优化版:mp.weixin.qq.com/s/yMR4CAfW0...。推理性能提升,相同时延约束下,吞吐能提升492%;相同吞吐情况下, 首token时延直降86%,token间时延直降69%。
欢迎各位小伙伴持续关注使用 PAI-Model Gallery,平台会不断上线 SOTA 模型,如果您有任何模型需求,也可以评论区留言!