开源新王MiniMax -M1 vLLM本地部署教程:百万级上下文支持成大模型领域新标杆!

一、模型介绍

MiniMax-M1 是由中国 AI 公司 MiniMax 于 2025 年 6 月 17 日推出的 全球首个开源大规模混合架构推理模型,凭借其百万级上下文支持、超高效计算性能和突破性成本表现,成为大模型领域的新标杆。

MiniMax-M1 型号可以在配备 8 个 H800 或 8 个 H20 GPU 的单个服务器上高效运行。在硬件配置方面,配备 8 个 H800 GPU 的服务器可以处理多达 200 万个令牌的上下文输入,而配备 8 个 H20 GPU 的服务器可以支持高达 500 万个令牌的超长上下文处理能力。

二、部署教程

获取 MiniMax 模型

MiniMax-M1 模型获取

从 HuggingFace 存储库下载模型:MiniMax-M1-40kMiniMax-M1-80k

下载命令:

bash 复制代码
pip install -U huggingface-hub
huggingface-cli download MiniMaxAI/MiniMax-M1-40k
# huggingface-cli download MiniMaxAI/MiniMax-M1-80k

# If you encounter network issues, you can set a proxy
export HF_ENDPOINT=https://hf-mirror.com

或使用 git 下载:

bash 复制代码
git lfs install
git clone https://huggingface.co/MiniMaxAI/MiniMax-M1-40k
git clone https://huggingface.co/MiniMaxAI/MiniMax-M1-80k

⚠️ 重要提示 :请确保您的系统已安装 Git LFS,这是完全下载模型权重文件所必需的。

部署选项

选项 1:使用 Docker 部署(推荐)

为了保证部署环境的一致性和稳定性,我们建议使用 Docker 进行部署。

⚠️ 版本要求

  • MiniMax-M1 型号需要 vLLM 版本 0.8.3 或更高版本才能获得完全支持

  • 如果您使用的 Docker 映像的 vLLM 版本低于所需版本,则需要:

    1. 更新到最新的 vLLM 代码
    2. 从源重新编译 vLLM。按照常见问题部分的解决方案 2 中的编译说明进行作
  • 特别说明:对于 0.8.3 和 0.9.2 之间的 vLLM 版本,您需要修改模型配置:

    1. 打开config.json
    2. 更改为config['architectures'] = ["MiniMaxM1ForCausalLM"]``config['architectures'] = ["MiniMaxText01ForCausalLM"]
  1. 获取容器映像:
bash 复制代码
docker pull vllm/vllm-openai:v0.8.3
  1. 运行容器:
ini 复制代码
# Set environment variables
IMAGE=vllm/vllm-openai:v0.8.3
MODEL_DIR=<model storage path>
CODE_DIR=<code path>
NAME=MiniMaxImage

# Docker run configuration
DOCKER_RUN_CMD="--network=host --privileged --ipc=host --ulimit memlock=-1 --shm-size=2gb --rm --gpus all --ulimit stack=67108864"

# Start the container
sudo docker run -it \
    -v $MODEL_DIR:$MODEL_DIR \
    -v $CODE_DIR:$CODE_DIR \
    --name $NAME \
    $DOCKER_RUN_CMD \
    $IMAGE /bin/bash

选项 2:直接安装 vLLM

如果您的环境满足以下要求:

  • CUDA 12.1 的
  • PyTorch 2.1 版本

您可以直接安装 vLLM

安装命令:

复制代码
pip install vllm

💡 如果您使用的是其他环境配置,请参阅 vLLM 安装指南

启动服务

启动 MiniMax-M1 服务

css 复制代码
export SAFETENSORS_FAST_GPU=1
export VLLM_USE_V1=0
python3 -m vllm.entrypoints.openai.api_server \
--model <model storage path> \
--tensor-parallel-size 8 \
--trust-remote-code \
--quantization experts_int8  \
--max_model_len 4096 \
--dtype bfloat16

API 调用示例

arduino 复制代码
curl http://localhost:8000/v1/chat/completions \
    -H "Content-Type: application/json" \
    -d '{
        "model": "MiniMaxAI/MiniMax-M1",
        "messages": [
            {"role": "system", "content": [{"type": "text", "text": "You are a helpful assistant."}]},
            {"role": "user", "content": [{"type": "text", "text": "Who won the world series in 2020?"}]}
        ]
    }'

❗ 常见问题

模块加载问题

如果您遇到以下错误:

arduino 复制代码
import vllm._C  # noqa
ModuleNotFoundError: No module named 'vllm._C'

csharp 复制代码
MiniMax-M1 model is not currently supported

提供两种解决方案:

解决方案 1:复制依赖项文件

bash 复制代码
cd <working directory>
git clone https://github.com/vllm-project/vllm.git
cd vllm
cp /usr/local/lib/python3.12/dist-packages/vllm/*.so vllm 
cp -r /usr/local/lib/python3.12/dist-packages/vllm/vllm_flash_attn/* vllm/vllm_flash_attn
解决方案 2:从源安装

bash 复制代码
cd <working directory>
git clone https://github.com/vllm-project/vllm.git

cd vllm/
pip install -e .
相关推荐
测试人社区-千羽1 分钟前
AI重塑API测试数据生成的时代背景
人工智能·测试工具·程序人生·自动化·测试覆盖率
爱写Bug的小孙7 分钟前
Tools、MCP 和 Function Calling
开发语言·人工智能·python·ai·ai编程·工具调用
rgb2gray9 分钟前
城市韧性与交通基础设施系统耦合协调度的时空演变及影响因素
网络·人工智能·python·ai·写作·耦合·耦合协调
初级炼丹师(爱说实话版)15 分钟前
大模型部署-数据并行/模型并行
人工智能·python
listhi52018 分钟前
机械系统运动学与动力学在MATLAB及SimMechanics中的实现方案
人工智能·算法·matlab
AI大模型学徒19 分钟前
大模型应用开发(十五)_知识库1
人工智能·chatgpt·大模型·llm·知识库·deepseek
音视频牛哥20 分钟前
从“十五五”到数字化转型:音视频技术在未来产业中的关键作用
人工智能·深度学习·计算机视觉·音视频·十五五规划音视频低延迟方案·十五五规划低空经济低延迟方案·rtsp rtmp播放器
测试人社区—小叶子28 分钟前
测试开发面试高频“灵魂八问”深度解析与应答策略
网络·人工智能·测试工具·云原生·容器·面试·职场和发展
蛐蛐蜉蝣耶28 分钟前
Spring AI与MCP集成实践:构建智能应用的新方式
人工智能·微服务·java开发·spring ai·mcp
中冕—霍格沃兹软件开发测试30 分钟前
测试工具链的构建与团队协作:从工具集成到价值流动
人工智能·科技·测试工具·开源·appium·bug