企业RAG之构建 FastMCP 服务:基于模型上下文协议的智能服务体系搭建实践

本文较长,建议点赞收藏。更多AI大模型开发学习视频籽料, 都在这>>Github<<

在企业级的RAG系统落地过程中,如何构建一个高效、可扩展、智能化的服务调度体系成为了关键挑战。

在本次实践中,我基于 FastMCP 工具,尝试构建一个完整的 多服务协作框架,并将其引入企业RAG架构中,探索其在复杂工具链调度、上下文保持、智能决策等方面的能力。

为什么选择 FastMCP?

FastMCP 是对 MCP 协议的轻量实现,支持标准化的能力注册、健康检查、工具调用等接口。它具有以下显著优势:

  • 协议清晰、接口规范

  • 多服务协作机制可插拔

  • 天然支持 LLM+Tools 架构

  • 易于构建 Agent 多轮决策流程

系统架构总览

搭建基于 FastMCP 的智能服务系统,包含三个核心组件:

1. MCP Router(路由中心)

系统的"中枢神经"。负责管理所有服务器、分发请求、维护健康状态。

核心职责如下:

  • 服务器管理:注册 / 注销各个 MCP Server

  • 工具发现:收集并维护所有注册服务的工具能力

  • 智能路由:根据工具名称或调用目标,自动分发调用请求

  • 健康监控:定期检测服务可用性,保障系统健壮性

    核心代码如下:

python 复制代码
async def route_tool_call(self, tool_name: str, arguments: Dict[str, Any], session_id: str) -> Dict[str, Any]:    
"""路由工具调用到对应的服务器"""    
target_server = None    
for server_name, server_info in self.servers.items():        
if server_info.status == "active":
for tool in server_info.tools:
if tool.get("function", {}).get("name") == tool_name:
target_server = server_info
break    
# ...

2. MCP Server(服务提供者)

每一个 MCP Server 即为一个类似微服务的提供者,提供特定的工具能力。

目前实现了如下服务:

服务名称 功能领域
main_server.py 聊天对话、计算能力
database_server.py 数据库查询
file_server.py 文件操作(读取等)
weather_server.py 天气数据调用

每个 Server 都需遵循 MCP 标准协议,暴露以下三个 REST 接口:

  • /health:返回当前服务状态

  • /capabilities:提供工具能力列表

  • /call_tool:接收具体调用请求,执行功能

通过 start_multi_server.sh 脚本,我们可以一键启动所有服务:

scss 复制代码
启动 MCP 多服务器系统
启动路由中心 (8000)...
启动主服务器 (8001)...
启动数据库服务器 (8002)...
启动文件服务器 (8003)...
启动天气服务器 (8004)...

所有 Server 会自动向 Router 注册并上报能力,系统即刻具备完整工具协同能力。

3. Intelligent MCP Client(智能客户端)

连接 LLM 与 MCP 服务的桥梁,具备如下功能:

  • 获取可用工具:向路由中心查询所有注册服务器的工具列表

  • LLM 决策:使用 chat_with_functions 方法,让 DeepSeek 模型分析用户查询并决定是否需要调用工具

  • 工具调用:如果需要工具,LLM 会生成 tool_calls 结构

  • 路由执行:通过路由中心调用对应的工具

  • 结果整合:将工具执行结果反馈给 LLM,生成最终用户回复

我们通过问题:查询知识库列表来举例一下处理逻辑:

  1. 工具识别 :LLM 识别出需要调用数据库查询工具

  2. 工具调用 :

bash 复制代码
   调用工具: query_knowledge_bases,参数: {}
   工具调用路由: http://localhost:8000/call_tool
   请求数据: {'tool_name':
   'query_knowledge_bases', 'arguments': {},
   'session_id': 'default'}
  1. 路由转发 :路由中心将请求转发给 database_server

  2. 工具执行 :数据库服务器执行查询,返回 6 个知识库的详细信息

  3. 结果处理 :LLM 将工具返回的 JSON 数据转换为用户友好的格式

输出结果: 系统成功查询到 6 个知识库,包括智能客服数据库、用户手册、简历知识库等,并格式化展示给用户。

学习资源推荐

如果你想更深入地学习大模型,以下是一些非常有价值的学习资源,这些资源将帮助你从不同角度学习大模型,提升你的实践能力。

Github

相关推荐
大模型教程3 小时前
一文带你快速入门:大模型工作流都在用的RAG和GraphRAG技术
程序员·llm·agent
pepedd8643 小时前
LangChain:大模型开发框架的全方位解析与实践
前端·llm·trae
程序员小续3 小时前
React 官方严令禁止:Hook 不能写在 if/else,真相竟然是…
前端·javascript·程序员
AI大模型4 小时前
万字长文!从 0 到 1 搭建基于 LangGraph 的 AI Agent
langchain·llm·agent
Baihai_IDP4 小时前
OpenAI 开源模型 gpt-oss 是在合成数据上训练的吗?一些合理推测
开源·llm·openai
智泊AI5 小时前
手撕LLM | 从0开始讲解AI大模型底层技术原理
llm
聚客AI5 小时前
🧠深度解析模型压缩革命:减枝、量化、知识蒸馏
人工智能·深度学习·llm
CodeDevMaster5 小时前
Claude Code Router:一键接入多种AI模型的智能路由器
llm·ai编程·claude
掉鱼的猫6 小时前
Solon AI & MCP v3.5.0 发布(智能体应用开发框架)
java·mcp