Agent学习——小米MiMo-V2-Flash使用方法

一、MiMo-V2-Flash的亮点

①API 定价为输入 $0.1/M tokens,输出 $0.3/M tokens,且目前限时免费,推理成本仅为Claude 4.5 Sonnet的2.5%。

②在多个Agent测评基准中保持全球开源模型Top 2,代码能力强。

③使用场景多为智能通场景设计,支持深度思考和联网搜索。

④架构上使用混合注意力机制和多层MTP进行推理加速。

⑤模型权重和推理代码使用的是MIT协议,适用商业场景。
二、技术剖析

①窗口大小为128

②原生支持32K 上下文,外扩技术支持可达256K的上下文处理

多层MIT推理加速,并行效率倍增
三、在线体验

①体验链接:https://aistudio.xiaomimimo.com

②API地址(限时免费哦!各位白嫖党抓紧机会!!!):https://platform.xiaomimimo.com/

③收费定价:输入 0.1/M tokens,输出 0.3/M tokens

③本地部署:

a.模型权重:https://hf.co/XiaomiMiMo/MiMo-V2-Flash

b.GitHub仓库:https://github.com/xiaomimimo/MiMo-V2-Flash

四、模型效果

从公布的基准测试图中看,性能上有了些许提升,主要的提升应该还是在Agent场景、推理效率的提升和价格吧!但是目前架不住他免费呀!!!
五、调用方法

由于MiMo-V2-Flash 已封装成 OpenAI-Compatible HTTP 服务,启动后直接用**OpenAI SDK 或curl -i http://localhost:9001/v1/chat/completions**,模型路径、推理参数全部在启动命令里一次性配好,无需再写 .from_pretrained()。以下是四种不同场景的调用方式:

python 复制代码
# ①启动服务
pip install sglang
python3 -m sglang.launch_server \
  --model-path XiaomiMiMo/MiMo-V2-Flash \
  --served-model-name mimo-v2-flash \
  --tp-size 8 --trust-remote-code \
  --host 0.0.0.0 --port 9001


# ②API调用
from openai import OpenAI

client = OpenAI(base_url="http://localhost:9001/v1", api_key="dummy")

response = client.chat.completions.create(
    model="mimo-v2-flash",
    messages=[{"role": "user", "content": "Nice to meet you MiMo"}],
    max_tokens=4096,
    temperature=0.8,
    top_p=0.95,
    stream=True,
    extra_body={"chat_template_kwargs": {"enable_thinking": True}}
)

for chunk in response:
    print(chunk.choices[0].delta.content or "", end="")

# ③curl方式
curl http://localhost:9001/v1/chat/completions \
  -H "Content-Type: application/json" \
  -d '{
    "model": "mimo-v2-flash",
    "messages": [{"role": "user", "content": "Nice to meet you MiMo"}],
    "max_tokens": 4096,
    "temperature": 0.8,
    "top_p": 0.95,
    "stream": true,
    "chat_template_kwargs": {"enable_thinking": true}
  }'


# ④JaveScript方式
const { OpenAI } = require('openai');
const client = new OpenAI({ baseURL: 'http://localhost:9001/v1', apiKey: 'dummy' });

const stream = await client.chat.completions.create({
  model: 'mimo-v2-flash',
  messages: [{ role: 'user', content: 'Nice to meet you MiMo' }],
  max_tokens: 4096,
  temperature: 0.8,
  top_p: 0.95,
  stream: true,
  chat_template_kwargs: { enable_thinking: true }
});

for await (const chunk of stream) {
  process.stdout.write(chunk.choices[0]?.delta?.content || '');
}

使用流程:启动服务一次 → 拿到 http://localhost:9001/v1 → 当成 OpenAI 接口 用即可,模型、推理参数全部在启动命令里配置完成,无需再加载模型或写 .from_pretrained(

重要的事情说三遍:限时免费!限时免费!!限时免费!!!

相关推荐
GJGCY20 小时前
技术解析|中国智能体4类路径深度拆解,这类底座架构优势凸显
人工智能·经验分享·ai·agent·智能体·数字员工
玄同7651 天前
告别 AgentExecutor:LangChain v1.0+ Agent 模块深度迁移指南与实战全解析
人工智能·语言模型·自然语言处理·langchain·nlp·agent·智能体
阿杰学AI1 天前
AI核心知识74——大语言模型之ReAct 范式(简洁且通俗易懂版)
人工智能·ai·语言模型·自然语言处理·aigc·agent·react范式
高铭杰1 天前
LlamaIndex实用入门案例(可执行)
agent·llvm·rag·llamaindex
TGITCIC1 天前
LangChain入门(十三)- 6步实操Agent落地大法
langchain·agent·rag·ai agent·ai开发·agent开发·ai智能体开发
Bruk.Liu1 天前
快速使用Python实现一个AI Agent
开发语言·人工智能·python·ai·agent
大猫子的技术日记1 天前
VibeBlog-AI 时代个人博客Agent项目开源之路[10]:基于COLA DDD Skill来重构后端 python 项目架构
人工智能·agent·vibeblog
roamingcode1 天前
Cursor Memory 实战:如何终结 AI 助手的“金鱼记忆”
人工智能·agent·memory·cursor·会话记忆提取
x-cmd1 天前
[x-cmd] 100k+ Star 达成!Clawdbot/Moltbot 双双双改名 OpenClaw 了,还更新了版本
服务器·ai·agent·clawdbot·moltbot·openclaw
安如衫2 天前
从 OCR 到多模态 VLM Agentic AI:智能文档问答的范式转移全解
人工智能·ocr·agent·cv·rag·vlm