MCP 架构设计

模型上下文协议(MCP)采用客户端-宿主-服务端架构,单个宿主可运行多个客户端实例。该架构支持用户跨应用集成AI能力,同时保持明确的安全边界与功能隔离。基于JSON-RPC构建的MCP协议,专注于客户端与服务端间的上下文交换及采样协调(sampling coordination),提供有状态的会话管理。

核心组件

1. 宿主(Host)

宿主进程作为容器和协调器:

  • 创建和管理多个客户端实例
  • 控制客户端连接权限与生命周期
  • 强制执行安全策略和授权要求
  • 处理用户授权决策
  • 协调AI/LLM集成与采样
  • 管理跨客户端的上下文聚合

2. 客户端(Clients)

每个客户端由宿主创建并维护独立的服务端连接,具体功能包括:

  • 为每个服务端建立有状态会话
  • 处理协议协商与能力交换
  • 双向路由协议消息
  • 管理订阅与通知
  • 维护服务端间的安全边界

宿主应用负责创建和管理多个客户端,每个客户端与特定服务端保持1:1对应关系。

3. 服务端(Servers)

服务端提供专业化的上下文处理与能力支持:

  • ​功能暴露​:通过MCP基础协议开放资源、工具及提示词
  • ​独立运行​:各服务端专注单一职责,独立运作
  • ​采样请求​:经由客户端接口发起模型采样
  • ​安全合规​:必须严格遵守安全约束规范
  • ​部署形态​:支持本地进程或远程服务两种部署模式

设计原则

MCP基于以下核心设计原则构建,这些原则指导着其架构设计与实现:

1. 服务端应当极易构建

  • 宿主应用处理复杂协调职责
  • 服务端专注特定明确功能
  • 简洁接口最大限度降低实现开销
  • 清晰分离确保代码可维护性

2. 服务端应具备高度可组合性

  • 每个服务端独立提供专注功能
  • 多个服务端可无缝组合
  • 共享协议确保互操作性
  • 模块化设计支持可扩展性

3. 服务端不应读取完整对话内容,也无法"窥探"其他服务端内部数据

  • 服务端仅接收必要的上下文信息
  • 完整对话历史由宿主端保留
  • 每个服务端连接保持隔离
  • 跨服务端交互由宿主端管控
  • 宿主进程强制实施安全边界

4. 功能可在服务端和客户端逐步扩展

  • 核心协议仅提供最小必要功能
  • 额外能力可按需协商添加
  • 服务端与客户端可独立演进
  • 协议设计预留未来扩展空间
  • 始终保持向后兼容性

能力协商

模型上下文协议采用基于能力的协商系统,客户端和服务端在初始化时明确声明其支持的功能。能力决定会话期间可用的协议功能和基础组件。

  • 服务端声明能力包括资源订阅、工具支持和提示模板
  • 客户端声明能力包括采样支持和通知处理
  • 双方在整个会话期间必须遵守声明的能力范围
  • 可通过协议扩展协商额外能力

每项能力解锁会话中可使用的特定协议功能,例如:

  • 已实现的服务端功能必须在服务端能力中声明
  • 发送资源订阅通知需要服务端声明订阅支持能力
  • 工具调用要求服务端声明工具相关能力
  • 采样功能需要客户端声明对应支持能力

这种能力协商机制确保客户端和服务端对支持的功能有明确认知,同时保持协议的可扩展性。

相关推荐
YuTaoShao4 分钟前
【论文阅读】YOLOv8在单目下视多车目标检测中的应用
人工智能·yolo·目标检测
算家计算29 分钟前
字节开源代码模型——Seed-Coder 本地部署教程,模型自驱动数据筛选,让每行代码都精准落位!
人工智能·开源
伪_装37 分钟前
大语言模型(LLM)面试问题集
人工智能·语言模型·自然语言处理
gs8014043 分钟前
Tavily 技术详解:为大模型提供实时搜索增强的利器
人工智能·rag
music&movie1 小时前
算法工程师认知水平要求总结
人工智能·算法
量子位2 小时前
苹果炮轰推理模型全是假思考!4 个游戏戳破神话,o3/DeepSeek 高难度全崩溃
人工智能·deepseek
黑鹿0222 小时前
机器学习基础(四) 决策树
人工智能·决策树·机器学习
Fxrain2 小时前
[深度学习]搭建开发平台及Tensor基础
人工智能·深度学习
szxinmai主板定制专家2 小时前
【飞腾AI加固服务器】全国产化飞腾+昇腾310+PCIe Switch的AI大模型服务器解决方案
运维·服务器·arm开发·人工智能·fpga开发
laocui12 小时前
Σ∆ 数字滤波
人工智能·算法