MCP服务构建、使用

MCP服务构建、使用

一、什么是 MCP(Model Context Protocol)

1. MCP 的定义与作用

MCP 是一个开放协议,旨在标准化大型语言模型(LLM)与外部工具、数据源、服务的交互方式。

它可以被看作是:"AI 的 USB-C 接口" ------ 就像各种设备通过 USB-C 统一连接外设,LLM 可以通过 MCP 统一访问不同的工具、资源、API。

与传统 API 不同的是,MCP 专门为 语言模型交互 优化:LLM 能"看到"可用工具、知道参数结构、能够"调用"这些工具来增强它的能力。

2. MCP 的核心组成

在 MCP(以 FastMCP 为例)里,一般包含以下几类组件:

组件 含义 角色 / 相似概念
Tools 可执行的功能(方法 / 函数) 类似 API 的 POST / 操作,比如 "查询数据库"、"调用计算" (FastMCP)
Resources 只读数据 / 上下文资源 类似 API 的 GET / 数据接口
Prompts 预设的交互模板 有助于统一对话、构建复杂任务流程 (FastMCP)
Transport / 通信方式 客户端 ↔ 服务器 之间的连接协议 比如 stdio、HTTP(streamable)、SSE、WebSocket 等 (FastMCP)

3. 为什么要用 MCP?

  1. 解耦 LLM 与工具实现:LLM 不需要了解底层工具怎么编写,只要有标准接口就能调用。
  2. 安全性与权限控制:工具可以有权限控制、验证、输入校验等约束。
  3. 可组合 & 可扩展:可以把多个工具 / 资源组合成复杂任务,让 LLM 编排使用。
  4. 统一标准:使用 MCP,各种客户端(Claude Desktop、LLM 应用等)都可以统一访问你的服务。

4.安装

python 复制代码
pip install mcp

二、先构建最简单的mcp server

python 复制代码
# mcp_tools.py
from mcp.server.fastmcp import FastMCP
mcp = FastMCP("TestServer")
@mcp.tool()
def add(a:int, b:int):
    """
    返回两数之和。
    
    Args:
        a: int
        b: int
        
    Returns:
        两数之和
    """
    return {"result": a+b}

if __name__ == "__main__":
    mcp.run(transport="sse")
    # transport 可选 ['stdio', 'sse', 'streamable-http']

当transport选择为 'sse'或 'streamable-http'时,需要在命令行启动。

python 复制代码
python mcp_tools.py

三、获取mcp工具列表,如demo.py中的main、mian1、mian2三种方式。

python 复制代码
# demo.py
import asyncio
from mcp.client.stdio import stdio_client, StdioServerParameters
from mcp.client.session import ClientSession
from contextlib import AsyncExitStack
from mcp.client.sse import sse_client
from mcp.client.streamable_http import streamablehttp_client
async def main():
    exit_stack = AsyncExitStack()
    server_params = StdioServerParameters(
        command="python", 
        args=["mcp_tools.py"], 
        env=None
    )
    stdio_transport = await exit_stack.enter_async_context(stdio_client(server_params))
    stdio, write = stdio_transport
    session = await exit_stack.enter_async_context(ClientSession(stdio, write))
    
    await session.initialize()
    print("✅ Session 已初始化")

    tools = await session.list_tools()
    print("🔧 Tools:", tools)

    # result = await session.call_tool("query", {})
    # print("📌 调用结果:", result)
    await exit_stack.aclose()
    
async def main1():
    exit_stack = AsyncExitStack()
    server_params = StdioServerParameters(
        command="python", 
        args=["mcp_tools.py"], 
        env=None
    )
    async with (stdio_client(server_params)) as (read, write):
        session = await exit_stack.enter_async_context(ClientSession(read, write))
        await session.initialize()
        print("✅ Session 已初始化")

        tools = await session.list_tools()
        print("🔧 Tools:", tools)

        # result = await session.call_tool("query", {})
        # print("📌 调用结果:", result)
        await exit_stack.aclose()
async def main2():
    url = "https://mcp.api-inference.modelscope.net/your-key/sse" # modelscope中高德地图的mcp服务
    # url = "http://localhost:8000/mcp"  # 在本地自己启动 python mcp_tools.py  且transport="streamable-http"
    # url = "http://localhost:8000/sse"  # 在本地自己启动 python mcp_tools.py  且transport="sse"
    print(f"尝试连接到: {url}")
    exit_stack = AsyncExitStack()
    # 1. 进入 SSE 上下文,但不退出
    if url.endswith("sse"):
        sse_cm = sse_client(url)
    elif url.endswith("mcp"):
        sse_cm = streamablehttp_client(url)
    else:
        raise ValueError("URL 必须以 'sse' 或 'mcp' 结尾")
    # 手动调用 __aenter__ 获取流,并存储上下文管理器以便后续退出
    streams = await exit_stack.enter_async_context(sse_cm)
    print("SSE 流已获取。")

    # 2. 进入 Session 上下文,但不退出
    session_cm = ClientSession(streams[0], streams[1])
    # 手动调用 __aenter__ 获取 session
    session = await exit_stack.enter_async_context(session_cm)
    print("ClientSession 已创建。")
    # 3. 初始化 Session
    await session.initialize()
    print("Session 已初始化。")

    # 4. 获取并存储工具列表
    response = await session.list_tools()
    tools = {tool.name: tool for tool in response.tools}
    print(f"成功获取 {len(tools)} 个工具:")
    for name, tool in tools.items():
        print(f"  - {name}: {tool.description[:50]}...")  # 打印部分描述

    print("连接成功并准备就绪。")
    await exit_stack.aclose()
if __name__ == "__main__":
    asyncio.run(main2())

其中main2是两种主要的mcp服务形式。

四、mcp服务以及call_tool(工具调用)

使用sse方式启动mcp_tools.py之后,执行下面代码,可以模拟执行工具函数。主要关注session.call_tool

python 复制代码
# call_tools.py
from mcp.client.session import ClientSession
from mcp.client.sse import sse_client
from mcp.client.streamable_http import streamablehttp_client
from contextlib import AsyncExitStack
import asyncio
import json
async def main2():
    # url = "http://localhost:8000/mcp"  # 在本地自己启动 python mcptest.py  且transport="streamable-http"
    url = "http://localhost:8000/sse"  # 在本地自己启动 python mcptest.py  且transport="sse"
    print(f"尝试连接到: {url}")
    exit_stack = AsyncExitStack()
    # 1. 进入 SSE 上下文,但不退出
    if url.endswith("sse"):
        sse_cm = sse_client(url)
    elif url.endswith("mcp"):
        sse_cm = streamablehttp_client(url)
    else:
        raise ValueError("URL 必须以 'sse' 或 'mcp' 结尾")
    # 手动调用 __aenter__ 获取流,并存储上下文管理器以便后续退出
    streams = await exit_stack.enter_async_context(sse_cm)
    print("SSE 流已获取。")

    # 2. 进入 Session 上下文,但不退出
    session_cm = ClientSession(streams[0], streams[1])
    # 手动调用 __aenter__ 获取 session
    session = await exit_stack.enter_async_context(session_cm)
    print("ClientSession 已创建。")
    # 3. 初始化 Session
    await session.initialize()
    print("Session 已初始化。")

    # 4. 获取并存储工具列表
    response = await session.list_tools()
    tools = {tool.name: tool for tool in response.tools}
    print(f"成功获取 {len(tools)} 个工具:")
    for name, tool in tools.items():
        print(f"  - {name}: {tool.description[:500]}")  # 打印部分描述

    print("连接成功并准备就绪。")
    tool_args = {"a":1, "b":3}
    result = await session.call_tool(
                    "add", tool_args
                        )
    
    print("\n输入数据是:", tool_args, "\n结果是:", json.loads(result.content[0].text)["result"])
    await exit_stack.aclose()
if __name__ == "__main__":
    asyncio.run(main2())

执行结果如下:

五、更进一步------使用大模型提取问答中的参数和需要的工具,进而执行得出结果。

1、使用大模型提取参数和工具名称------再调用

python 复制代码
from mcp.client.session import ClientSession
from mcp.client.sse import sse_client
from mcp.client.streamable_http import streamablehttp_client
from contextlib import AsyncExitStack
import asyncio
import json
from mcptest import mcp
import asyncio, json

tools = asyncio.run(mcp.list_tools())

def format_tools_for_llm(tool) -> str:
    """对tool进行格式化
    Returns:
        格式化之后的tool描述
    """
    args_desc = []
    if "properties" in tool.inputSchema:
        for param_name, param_info in tool.inputSchema["properties"].items():
            arg_desc = (
                f"- {param_name}: {param_info.get('Description', 'No description')}"
            )
            if param_name in tool.inputSchema.get("required", []):
                arg_desc += " (required)"
            args_desc.append(arg_desc)
 
    return f"Tool: {tool.name}\nDescription: {tool.description}\nArguments:\n{chr(10).join(args_desc)}"
async def main2(params):
    # url = "http://localhost:8000/mcp"  # 在本地自己启动 python mcptest.py  且transport="streamable-http"
    url = "http://localhost:8000/sse"  # 在本地自己启动 python mcptest.py  且transport="sse"
    print(f"尝试连接到: {url}")
    exit_stack = AsyncExitStack()
    # 1. 进入 SSE 上下文,但不退出
    if url.endswith("sse"):
        sse_cm = sse_client(url)
    elif url.endswith("mcp"):
        sse_cm = streamablehttp_client(url)
    else:
        raise ValueError("URL 必须以 'sse' 或 'mcp' 结尾")
    # 手动调用 __aenter__ 获取流,并存储上下文管理器以便后续退出
    streams = await exit_stack.enter_async_context(sse_cm)
    print("SSE 流已获取。")

    # 2. 进入 Session 上下文,但不退出
    session_cm = ClientSession(streams[0], streams[1])
    # 手动调用 __aenter__ 获取 session
    session = await exit_stack.enter_async_context(session_cm)
    print("ClientSession 已创建。")
    # 3. 初始化 Session
    await session.initialize()
    print("Session 已初始化。")

    # 4. 获取并存储工具列表
    response = await session.list_tools()
    tools = {tool.name: tool for tool in response.tools}
    print(f"成功获取 {len(tools)} 个工具:")
    for name, tool in tools.items():
        print(f"  - {name}: {tool.description[:500]}")  # 打印部分描述

    print("连接成功并准备就绪。")
    
    result = await session.call_tool(
                    params["tool"], params["arguments"]
                        )
    try:
        print("\n输入数据是:", params["arguments"], "\n执行的工具是:", params["tool"], "\n结果是:", json.loads(result.content[0].text)["result"])
    except:
        print(result.content[0].text)
    await exit_stack.aclose()
    
def extract_tool_params(text:str):
    messages = []
    tools_description = "\n".join([format_tools_for_llm(tool) for tool in tools])
    system_prompt = (
                "You are a helpful assistant with access to these tools:\n\n"
                f"{tools_description}\n"
                "Choose the appropriate tool based on the user's question. "
                "If no tool is needed, reply directly.\n\n"
                "IMPORTANT: When you need to use a tool, you must ONLY respond with "
                "the exact JSON object format below, nothing else:\n"
                "{\n"
                '    "tool": "tool-name",\n'
                '    "arguments": {\n'
                '        "argument-name": "value"\n'
                "    }\n"
                "}\n\n"
                '"```json" is not allowed'
                "After receiving a tool's response:\n"
                "1. Transform the raw data into a natural, conversational response\n"
                "2. Keep responses concise but informative\n"
                "3. Focus on the most relevant information\n"
                "4. Use appropriate context from the user's question\n"
                "5. Avoid simply repeating the raw data\n\n"
                "Please use only the tools that are explicitly defined above."
        )
    messages.append({"role": "system", "content": system_prompt})

    # print(messages)
    messages.append({"role": "user", "content": text})
    from openai import OpenAI
    client = OpenAI(
                base_url="https://api.deepseek.com",
                api_key="your-api-key",# 替换成你的deepseek的api-key
            )
    model = "deepseek-chat"
    response = client.chat.completions.create(
                model=model,
                messages=messages,
            )
    message = response.choices[0].message
    
    return json.loads(message.content)
    
if __name__ == "__main__":
    params = extract_tool_params("计算100+20等于几?")
    asyncio.run(main2(params))

运行结果:

当我提问是

python 复制代码
"计算100.1+20.1等于几"

报错了,因为类型不符合

以上方式是利用大模型的提取参数的能力,还没有用到大模型的function call能力。从下图可以看出,它只是提取了参数和工具名,我们需要根据参数和工具名去执行工具。

2、直接使用tool call的能力

python 复制代码
from mcp.client.session import ClientSession
from mcp.client.sse import sse_client
from mcp.client.streamable_http import streamablehttp_client
from contextlib import AsyncExitStack
import asyncio
import json
from mcptest import mcp
import asyncio, json
import websockets
tools = asyncio.run(mcp.list_tools())

def format_tools_for_llm(tool) -> str:
    """对tool进行格式化
    Returns:
        格式化之后的tool描述
    """
    args_desc = []
    if "properties" in tool.inputSchema:
        for param_name, param_info in tool.inputSchema["properties"].items():
            arg_desc = (
                f"- {param_name}: {param_info.get('Description', 'No description')}"
            )
            if param_name in tool.inputSchema.get("required", []):
                arg_desc += " (required)"
            args_desc.append(arg_desc)
 
    return f"Tool: {tool.name}\nDescription: {tool.description}\nArguments:\n{chr(10).join(args_desc)}"
async def main2(message):
    # url = "http://localhost:8000/mcp"  # 在本地自己启动 python mcptest.py  且transport="streamable-http"
    url = "http://localhost:8000/sse"  # 在本地自己启动 python mcptest.py  且transport="sse"
    print(f"尝试连接到: {url}")
    exit_stack = AsyncExitStack()
    # 1. 进入 SSE 上下文,但不退出
    if url.endswith("sse"):
        sse_cm = sse_client(url)
    elif url.endswith("mcp"):
        sse_cm = streamablehttp_client(url)
    else:
        raise ValueError("URL 必须以 'sse' 或 'mcp' 结尾")
    # 手动调用 __aenter__ 获取流,并存储上下文管理器以便后续退出
    streams = await exit_stack.enter_async_context(sse_cm)
    print("SSE 流已获取。")

    # 2. 进入 Session 上下文,但不退出
    session_cm = ClientSession(streams[0], streams[1])
    # 手动调用 __aenter__ 获取 session
    session = await exit_stack.enter_async_context(session_cm)
    print("ClientSession 已创建。")
    # 3. 初始化 Session
    await session.initialize()
    print("Session 已初始化。")

    # 4. 获取并存储工具列表
    response = await session.list_tools()
    tools = {tool.name: tool for tool in response.tools}
    print(f"成功获取 {len(tools)} 个工具:")
    for name, tool in tools.items():
        print(f"  - {name}: {tool.description[:500]}")  # 打印部分描述

    print("连接成功并准备就绪。")
    for tool_call in message.tool_calls:
        tool_request = {
                    "id": tool_call.id,
                    "type": "tool_call",
                    "tool": tool_call.function.name,
                    "params": json.loads(tool_call.function.arguments)
                }
        result = await session.call_tool(tool_request["tool"], tool_request["params"])
    try:
        print("\n输入数据是:", message["arguments"], "\n执行的工具是:", message["tool"], "\n结果是:", json.loads(result.content[0].text)["result"])
    except:
        print(result.content[0].text)
    await exit_stack.aclose()
   
def extract_tool_params(text:str):
    messages = []
    messages.append({"role": "system", "content": "You are a helpful assistant"})

    # print(messages)
    messages.append({"role": "user", "content": text})
    from openai import OpenAI
    client = OpenAI(
                base_url="https://api.deepseek.com",
                api_key="your-api-key",
            )
    model = "deepseek-chat"
    response = client.chat.completions.create(
                model=model,
                messages=messages,
                tools=mcp_tools_to_openai(tools)
            )
    message = response.choices[0].message
    
    return message
def mcp_tools_to_openai(tools_from_mcp):
    openai_tools = []
    for t in tools_from_mcp:
        openai_tools.append({
            "type": "function",
            "function": {
                "name": t.name,
                "description": t.description,
                "parameters": t.inputSchema
            }
        })
    return openai_tools    
if __name__ == "__main__":
    message = extract_tool_params("计算100+20等于几?")
    asyncio.run(main2(message))

结果如下:

大模型返回信息如下:

当我提问是

python 复制代码
"计算100.1+20.1等于几"

结果如下:

相关推荐
ada7_2 小时前
LeetCode(python)230.二叉搜索树中第k小的元素
python·算法·leetcode·链表
江上鹤.1482 小时前
Day36官方文档的阅读
python
嗝o゚2 小时前
Flutter 无障碍功能开发最佳实践
python·flutter·华为
芝麻开门-新起点2 小时前
第13-1章 Python地理空间开发
开发语言·python
秋刀鱼 ..3 小时前
2026年电力电子与电能变换国际学术会议 (ICPEPC 2026)
大数据·python·计算机网络·数学建模·制造
znhy_233 小时前
day35打卡
python
盼哥PyAI实验室3 小时前
12306反反爬虫策略:Python网络请求优化实战
网络·爬虫·python
deephub3 小时前
DeepSeek-R1 与 OpenAI o3 的启示:Test-Time Compute 技术不再迷信参数堆叠
人工智能·python·深度学习·大语言模型
力江4 小时前
FastAPI 最佳架构实践,从混乱到优雅的进化之路
python·缓存·架构·单元测试·fastapi·分页·企业
Raink老师4 小时前
第 11 章 错误处理与异常
python