理解 MCP:从配置到本地服务集成的完整探索

以下是一篇在复现一些Agent项目时提出的 MCP(Modular Compute Protocol)相关问题与背景的总结文章,如果对你有帮助或者有想法碰撞,欢迎随时和我交流 :)


理解 MCP:从配置到本地服务集成的完整探索

在本次探索过程中,我深入研究了 Modular Compute Protocol(MCP) 的客户端、服务端架构、插件运行机制以及实际使用场景,尤其聚焦在 Blender 插件与前端系统的对接原理上。以下是我的完整理解和总结。


一、MCP 是什么?

Modular Compute Protocol (MCP) 是一种用于连接前端与后端模块的通用通信协议,适用于本地或远程服务之间的调用。它的设计理念是模块化、解耦、进程隔离,广泛用于如图形渲染、地图服务、AI 推理等异步任务。

MCP 的两大角色:

  • Client:发起任务(通常是前端或中间层)
  • Server:提供功能的进程(比如 blender 渲染器、地图计算模块等)

二、MCP 配置理解

在项目中通常使用如下格式来定义 MCP 服务:

json 复制代码
"mcpServers": {
  "blender": {
    "isActive": true,
    "command": "uvx",
    "args": ["blender-mcp"],
    "name": "blender"
  },
  "amap-maps": {
    "isActive": true,
    "command": "npx",
    "args": ["-y", "@amap/amap-maps-mcp-server"],
    "name": "amap-maps"
  }
}

参数说明:

  • command: 启动 MCP 服务的主命令(如 uvx, npx
  • args: 参数列表,通常指定模块名称或包名
  • isActive: 启动时是否激活该服务
  • env: 服务运行时的环境变量(如 API key)

三、npxuvx 的角色

npx

  • Node.js 官方工具,用于临时运行 NPM 包。
  • 例:npx -y @amap/amap-maps-mcp-server 启动地图服务。
  • -y 表示无需确认,自动安装运行。

uvx

  • 类似于 npx,但通常是 MCP 专用的运行器(可能是内部实现)。
  • 启动本地 MCP 模块如 blender-mcp
  • 实际行为可能是运行某个带 CLI 的 Python/NPM 模块,或直接调用 Blender 打开插件。

四、Blender 插件的 MCP Server 启动原理

通过对 Blender 插件源码分析(addon.py),核心机制如下:

🌐 启动一个本地 Socket Server:

  • 地址:localhost
  • 默认端口:9876(可配置)
  • 协议:TCP + JSON

🔁 工作流程:

  1. 插件启动后,通过按钮或 bpy.ops.blendermcp.start_server() 开启服务。
  2. 使用 Python 原生 socket 监听端口。
  3. 每个 client 连接在独立线程中处理。
  4. 支持命令包括:获取场景信息、导入模型、执行 Python 脚本等。

⚙️ MCP Client 如何连接?

  • 客户端通过配置自动运行 Blender 插件服务。

  • 监听插件输出:

    vbscript 复制代码
    BlenderMCP server started on localhost:9876

    并据此连接 socket。


五、Blender MCP 插件支持的能力

插件暴露了丰富的功能接口,包括但不限于:

  • get_scene_info: 获取当前场景简要数据
  • get_object_info: 查询指定对象详情
  • execute_code: 执行任意 Blender Python 代码(调试神器)
  • get_polyhaven_assets, download_polyhaven_asset: 联网获取 HDRI/材质/模型
  • create_rodin_job, import_generated_asset: 与 Hyper3D Rodin 模型生成服务对接

这些功能通过 JSON 命令触发,并保证在主线程执行,以防 Blender 崩溃。


六、端口/IP 的确定机制

端口由插件 BlenderMCPServer 构造时绑定,一般为用户可配置项(默认9876):

objectivec 复制代码
self.socket.bind((self.host, self.port))  # host=localhost

客户端并不需要手动配置连接地址,而是通过 MCP 框架监听插件 stdout 日志,自动抓取服务地址。


七、整体链路回顾(启动→连接→通信)

🌐 MCP 客户端从配置启动、插件加载到服务连接与数据交互的完整流程,实现了前端与本地模块的高效解耦通信。

markdown 复制代码
mcpClient (前端) 
   ↓ 配置 command
uvx blender-mcp
   ↓ 启动 Blender + 插件
Blender 插件:
   - 监听 localhost:9876
   - 输出服务地址日志
   - 等待 socket 请求
mcpClient 捕捉地址 → 建立连接 → 发指令 → 接收结果

简洁版

详细参考版:


八、总结

通过 MCP,我们可以将如 Blender、地图服务、AI 推理等后端模块抽象成「可插拔服务」,用统一接口管理调度。MCP 配置中的 commandargs 控制了模块的启动方式,插件或服务本身则实现了协议通信与功能暴露。对接成功后,前端只需发 JSON 指令即可远程控制复杂应用。


如果你后续还想做更复杂的多模块集成,比如让多个 MCP 服务之间联动、链式调用,也可以继续扩展这套架构。

相关推荐
吴佳浩43 分钟前
Python入门指南-番外-LLM-Fingerprint(大语言模型指纹):从技术视角看AI开源生态的边界与挑战
python·llm·mcp
吴佳浩1 小时前
Python入门指南-AI模型相似性检测方法:技术原理与实现
人工智能·python·llm
蓝倾2 小时前
京东批量获取商品SKU操作指南
前端·后端·api
掉鱼的猫2 小时前
Java MCP 实战:构建跨进程与远程的工具服务
java·openai·mcp
Spider_Man3 小时前
🚀 从阻塞到丝滑:React中DeepSeek LLM流式输出的实现秘籍
前端·react.js·llm
用户3521802454754 小时前
MCP极简入门:@modelcontextprotocol/inspector 如何使用
ai编程·mcp
Rockson4 小时前
C++如何查询实时贵金属行情
c++·api
大模型开发4 小时前
Java开发者LLM实战——使用LangChain4j构建本地RAG系统
程序员·langchain·llm
用户30742971671584 小时前
LLM-as-a-Judge :构建可扩展的自动化 AI 评估体系
llm·aigc
蓝倾5 小时前
如何使用Python通过API接口批量抓取小红书笔记评论?
前端·后端·api