MCP服务构建、使用

MCP服务构建、使用

一、什么是 MCP(Model Context Protocol)

1. MCP 的定义与作用

MCP 是一个开放协议,旨在标准化大型语言模型(LLM)与外部工具、数据源、服务的交互方式。

它可以被看作是:"AI 的 USB-C 接口" ------ 就像各种设备通过 USB-C 统一连接外设,LLM 可以通过 MCP 统一访问不同的工具、资源、API。

与传统 API 不同的是,MCP 专门为 语言模型交互 优化:LLM 能"看到"可用工具、知道参数结构、能够"调用"这些工具来增强它的能力。

2. MCP 的核心组成

在 MCP(以 FastMCP 为例)里,一般包含以下几类组件:

组件 含义 角色 / 相似概念
Tools 可执行的功能(方法 / 函数) 类似 API 的 POST / 操作,比如 "查询数据库"、"调用计算" (FastMCP)
Resources 只读数据 / 上下文资源 类似 API 的 GET / 数据接口
Prompts 预设的交互模板 有助于统一对话、构建复杂任务流程 (FastMCP)
Transport / 通信方式 客户端 ↔ 服务器 之间的连接协议 比如 stdio、HTTP(streamable)、SSE、WebSocket 等 (FastMCP)

3. 为什么要用 MCP?

  1. 解耦 LLM 与工具实现:LLM 不需要了解底层工具怎么编写,只要有标准接口就能调用。
  2. 安全性与权限控制:工具可以有权限控制、验证、输入校验等约束。
  3. 可组合 & 可扩展:可以把多个工具 / 资源组合成复杂任务,让 LLM 编排使用。
  4. 统一标准:使用 MCP,各种客户端(Claude Desktop、LLM 应用等)都可以统一访问你的服务。

4.安装

python 复制代码
pip install mcp

二、先构建最简单的mcp server

python 复制代码
# mcp_tools.py
from mcp.server.fastmcp import FastMCP
mcp = FastMCP("TestServer")
@mcp.tool()
def add(a:int, b:int):
    """
    返回两数之和。
    
    Args:
        a: int
        b: int
        
    Returns:
        两数之和
    """
    return {"result": a+b}

if __name__ == "__main__":
    mcp.run(transport="sse")
    # transport 可选 ['stdio', 'sse', 'streamable-http']

当transport选择为 'sse'或 'streamable-http'时,需要在命令行启动。

python 复制代码
python mcp_tools.py

三、获取mcp工具列表,如demo.py中的main、mian1、mian2三种方式。

python 复制代码
# demo.py
import asyncio
from mcp.client.stdio import stdio_client, StdioServerParameters
from mcp.client.session import ClientSession
from contextlib import AsyncExitStack
from mcp.client.sse import sse_client
from mcp.client.streamable_http import streamablehttp_client
async def main():
    exit_stack = AsyncExitStack()
    server_params = StdioServerParameters(
        command="python", 
        args=["mcp_tools.py"], 
        env=None
    )
    stdio_transport = await exit_stack.enter_async_context(stdio_client(server_params))
    stdio, write = stdio_transport
    session = await exit_stack.enter_async_context(ClientSession(stdio, write))
    
    await session.initialize()
    print("✅ Session 已初始化")

    tools = await session.list_tools()
    print("🔧 Tools:", tools)

    # result = await session.call_tool("query", {})
    # print("📌 调用结果:", result)
    await exit_stack.aclose()
    
async def main1():
    exit_stack = AsyncExitStack()
    server_params = StdioServerParameters(
        command="python", 
        args=["mcp_tools.py"], 
        env=None
    )
    async with (stdio_client(server_params)) as (read, write):
        session = await exit_stack.enter_async_context(ClientSession(read, write))
        await session.initialize()
        print("✅ Session 已初始化")

        tools = await session.list_tools()
        print("🔧 Tools:", tools)

        # result = await session.call_tool("query", {})
        # print("📌 调用结果:", result)
        await exit_stack.aclose()
async def main2():
    url = "https://mcp.api-inference.modelscope.net/your-key/sse" # modelscope中高德地图的mcp服务
    # url = "http://localhost:8000/mcp"  # 在本地自己启动 python mcp_tools.py  且transport="streamable-http"
    # url = "http://localhost:8000/sse"  # 在本地自己启动 python mcp_tools.py  且transport="sse"
    print(f"尝试连接到: {url}")
    exit_stack = AsyncExitStack()
    # 1. 进入 SSE 上下文,但不退出
    if url.endswith("sse"):
        sse_cm = sse_client(url)
    elif url.endswith("mcp"):
        sse_cm = streamablehttp_client(url)
    else:
        raise ValueError("URL 必须以 'sse' 或 'mcp' 结尾")
    # 手动调用 __aenter__ 获取流,并存储上下文管理器以便后续退出
    streams = await exit_stack.enter_async_context(sse_cm)
    print("SSE 流已获取。")

    # 2. 进入 Session 上下文,但不退出
    session_cm = ClientSession(streams[0], streams[1])
    # 手动调用 __aenter__ 获取 session
    session = await exit_stack.enter_async_context(session_cm)
    print("ClientSession 已创建。")
    # 3. 初始化 Session
    await session.initialize()
    print("Session 已初始化。")

    # 4. 获取并存储工具列表
    response = await session.list_tools()
    tools = {tool.name: tool for tool in response.tools}
    print(f"成功获取 {len(tools)} 个工具:")
    for name, tool in tools.items():
        print(f"  - {name}: {tool.description[:50]}...")  # 打印部分描述

    print("连接成功并准备就绪。")
    await exit_stack.aclose()
if __name__ == "__main__":
    asyncio.run(main2())

其中main2是两种主要的mcp服务形式。

四、mcp服务以及call_tool(工具调用)

使用sse方式启动mcp_tools.py之后,执行下面代码,可以模拟执行工具函数。主要关注session.call_tool

python 复制代码
# call_tools.py
from mcp.client.session import ClientSession
from mcp.client.sse import sse_client
from mcp.client.streamable_http import streamablehttp_client
from contextlib import AsyncExitStack
import asyncio
import json
async def main2():
    # url = "http://localhost:8000/mcp"  # 在本地自己启动 python mcptest.py  且transport="streamable-http"
    url = "http://localhost:8000/sse"  # 在本地自己启动 python mcptest.py  且transport="sse"
    print(f"尝试连接到: {url}")
    exit_stack = AsyncExitStack()
    # 1. 进入 SSE 上下文,但不退出
    if url.endswith("sse"):
        sse_cm = sse_client(url)
    elif url.endswith("mcp"):
        sse_cm = streamablehttp_client(url)
    else:
        raise ValueError("URL 必须以 'sse' 或 'mcp' 结尾")
    # 手动调用 __aenter__ 获取流,并存储上下文管理器以便后续退出
    streams = await exit_stack.enter_async_context(sse_cm)
    print("SSE 流已获取。")

    # 2. 进入 Session 上下文,但不退出
    session_cm = ClientSession(streams[0], streams[1])
    # 手动调用 __aenter__ 获取 session
    session = await exit_stack.enter_async_context(session_cm)
    print("ClientSession 已创建。")
    # 3. 初始化 Session
    await session.initialize()
    print("Session 已初始化。")

    # 4. 获取并存储工具列表
    response = await session.list_tools()
    tools = {tool.name: tool for tool in response.tools}
    print(f"成功获取 {len(tools)} 个工具:")
    for name, tool in tools.items():
        print(f"  - {name}: {tool.description[:500]}")  # 打印部分描述

    print("连接成功并准备就绪。")
    tool_args = {"a":1, "b":3}
    result = await session.call_tool(
                    "add", tool_args
                        )
    
    print("\n输入数据是:", tool_args, "\n结果是:", json.loads(result.content[0].text)["result"])
    await exit_stack.aclose()
if __name__ == "__main__":
    asyncio.run(main2())

执行结果如下:

五、更进一步------使用大模型提取问答中的参数和需要的工具,进而执行得出结果。

1、使用大模型提取参数和工具名称------再调用

python 复制代码
from mcp.client.session import ClientSession
from mcp.client.sse import sse_client
from mcp.client.streamable_http import streamablehttp_client
from contextlib import AsyncExitStack
import asyncio
import json
from mcptest import mcp
import asyncio, json

tools = asyncio.run(mcp.list_tools())

def format_tools_for_llm(tool) -> str:
    """对tool进行格式化
    Returns:
        格式化之后的tool描述
    """
    args_desc = []
    if "properties" in tool.inputSchema:
        for param_name, param_info in tool.inputSchema["properties"].items():
            arg_desc = (
                f"- {param_name}: {param_info.get('Description', 'No description')}"
            )
            if param_name in tool.inputSchema.get("required", []):
                arg_desc += " (required)"
            args_desc.append(arg_desc)
 
    return f"Tool: {tool.name}\nDescription: {tool.description}\nArguments:\n{chr(10).join(args_desc)}"
async def main2(params):
    # url = "http://localhost:8000/mcp"  # 在本地自己启动 python mcptest.py  且transport="streamable-http"
    url = "http://localhost:8000/sse"  # 在本地自己启动 python mcptest.py  且transport="sse"
    print(f"尝试连接到: {url}")
    exit_stack = AsyncExitStack()
    # 1. 进入 SSE 上下文,但不退出
    if url.endswith("sse"):
        sse_cm = sse_client(url)
    elif url.endswith("mcp"):
        sse_cm = streamablehttp_client(url)
    else:
        raise ValueError("URL 必须以 'sse' 或 'mcp' 结尾")
    # 手动调用 __aenter__ 获取流,并存储上下文管理器以便后续退出
    streams = await exit_stack.enter_async_context(sse_cm)
    print("SSE 流已获取。")

    # 2. 进入 Session 上下文,但不退出
    session_cm = ClientSession(streams[0], streams[1])
    # 手动调用 __aenter__ 获取 session
    session = await exit_stack.enter_async_context(session_cm)
    print("ClientSession 已创建。")
    # 3. 初始化 Session
    await session.initialize()
    print("Session 已初始化。")

    # 4. 获取并存储工具列表
    response = await session.list_tools()
    tools = {tool.name: tool for tool in response.tools}
    print(f"成功获取 {len(tools)} 个工具:")
    for name, tool in tools.items():
        print(f"  - {name}: {tool.description[:500]}")  # 打印部分描述

    print("连接成功并准备就绪。")
    
    result = await session.call_tool(
                    params["tool"], params["arguments"]
                        )
    try:
        print("\n输入数据是:", params["arguments"], "\n执行的工具是:", params["tool"], "\n结果是:", json.loads(result.content[0].text)["result"])
    except:
        print(result.content[0].text)
    await exit_stack.aclose()
    
def extract_tool_params(text:str):
    messages = []
    tools_description = "\n".join([format_tools_for_llm(tool) for tool in tools])
    system_prompt = (
                "You are a helpful assistant with access to these tools:\n\n"
                f"{tools_description}\n"
                "Choose the appropriate tool based on the user's question. "
                "If no tool is needed, reply directly.\n\n"
                "IMPORTANT: When you need to use a tool, you must ONLY respond with "
                "the exact JSON object format below, nothing else:\n"
                "{\n"
                '    "tool": "tool-name",\n'
                '    "arguments": {\n'
                '        "argument-name": "value"\n'
                "    }\n"
                "}\n\n"
                '"```json" is not allowed'
                "After receiving a tool's response:\n"
                "1. Transform the raw data into a natural, conversational response\n"
                "2. Keep responses concise but informative\n"
                "3. Focus on the most relevant information\n"
                "4. Use appropriate context from the user's question\n"
                "5. Avoid simply repeating the raw data\n\n"
                "Please use only the tools that are explicitly defined above."
        )
    messages.append({"role": "system", "content": system_prompt})

    # print(messages)
    messages.append({"role": "user", "content": text})
    from openai import OpenAI
    client = OpenAI(
                base_url="https://api.deepseek.com",
                api_key="your-api-key",# 替换成你的deepseek的api-key
            )
    model = "deepseek-chat"
    response = client.chat.completions.create(
                model=model,
                messages=messages,
            )
    message = response.choices[0].message
    
    return json.loads(message.content)
    
if __name__ == "__main__":
    params = extract_tool_params("计算100+20等于几?")
    asyncio.run(main2(params))

运行结果:

当我提问是

python 复制代码
"计算100.1+20.1等于几"

报错了,因为类型不符合

以上方式是利用大模型的提取参数的能力,还没有用到大模型的function call能力。从下图可以看出,它只是提取了参数和工具名,我们需要根据参数和工具名去执行工具。

2、直接使用tool call的能力

python 复制代码
from mcp.client.session import ClientSession
from mcp.client.sse import sse_client
from mcp.client.streamable_http import streamablehttp_client
from contextlib import AsyncExitStack
import asyncio
import json
from mcptest import mcp
import asyncio, json
import websockets
tools = asyncio.run(mcp.list_tools())

def format_tools_for_llm(tool) -> str:
    """对tool进行格式化
    Returns:
        格式化之后的tool描述
    """
    args_desc = []
    if "properties" in tool.inputSchema:
        for param_name, param_info in tool.inputSchema["properties"].items():
            arg_desc = (
                f"- {param_name}: {param_info.get('Description', 'No description')}"
            )
            if param_name in tool.inputSchema.get("required", []):
                arg_desc += " (required)"
            args_desc.append(arg_desc)
 
    return f"Tool: {tool.name}\nDescription: {tool.description}\nArguments:\n{chr(10).join(args_desc)}"
async def main2(message):
    # url = "http://localhost:8000/mcp"  # 在本地自己启动 python mcptest.py  且transport="streamable-http"
    url = "http://localhost:8000/sse"  # 在本地自己启动 python mcptest.py  且transport="sse"
    print(f"尝试连接到: {url}")
    exit_stack = AsyncExitStack()
    # 1. 进入 SSE 上下文,但不退出
    if url.endswith("sse"):
        sse_cm = sse_client(url)
    elif url.endswith("mcp"):
        sse_cm = streamablehttp_client(url)
    else:
        raise ValueError("URL 必须以 'sse' 或 'mcp' 结尾")
    # 手动调用 __aenter__ 获取流,并存储上下文管理器以便后续退出
    streams = await exit_stack.enter_async_context(sse_cm)
    print("SSE 流已获取。")

    # 2. 进入 Session 上下文,但不退出
    session_cm = ClientSession(streams[0], streams[1])
    # 手动调用 __aenter__ 获取 session
    session = await exit_stack.enter_async_context(session_cm)
    print("ClientSession 已创建。")
    # 3. 初始化 Session
    await session.initialize()
    print("Session 已初始化。")

    # 4. 获取并存储工具列表
    response = await session.list_tools()
    tools = {tool.name: tool for tool in response.tools}
    print(f"成功获取 {len(tools)} 个工具:")
    for name, tool in tools.items():
        print(f"  - {name}: {tool.description[:500]}")  # 打印部分描述

    print("连接成功并准备就绪。")
    for tool_call in message.tool_calls:
        tool_request = {
                    "id": tool_call.id,
                    "type": "tool_call",
                    "tool": tool_call.function.name,
                    "params": json.loads(tool_call.function.arguments)
                }
        result = await session.call_tool(tool_request["tool"], tool_request["params"])
    try:
        print("\n输入数据是:", message["arguments"], "\n执行的工具是:", message["tool"], "\n结果是:", json.loads(result.content[0].text)["result"])
    except:
        print(result.content[0].text)
    await exit_stack.aclose()
   
def extract_tool_params(text:str):
    messages = []
    messages.append({"role": "system", "content": "You are a helpful assistant"})

    # print(messages)
    messages.append({"role": "user", "content": text})
    from openai import OpenAI
    client = OpenAI(
                base_url="https://api.deepseek.com",
                api_key="your-api-key",
            )
    model = "deepseek-chat"
    response = client.chat.completions.create(
                model=model,
                messages=messages,
                tools=mcp_tools_to_openai(tools)
            )
    message = response.choices[0].message
    
    return message
def mcp_tools_to_openai(tools_from_mcp):
    openai_tools = []
    for t in tools_from_mcp:
        openai_tools.append({
            "type": "function",
            "function": {
                "name": t.name,
                "description": t.description,
                "parameters": t.inputSchema
            }
        })
    return openai_tools    
if __name__ == "__main__":
    message = extract_tool_params("计算100+20等于几?")
    asyncio.run(main2(message))

结果如下:

大模型返回信息如下:

当我提问是

python 复制代码
"计算100.1+20.1等于几"

结果如下:

相关推荐
胜天半月子10 小时前
Python自动化测试 | 快速认识并了解pytest的基本使用
服务器·python·pytest
小小测试开发10 小时前
Python Web3库入门:从零开始与以太坊区块链交互
python·web3·区块链
独行soc10 小时前
2025年渗透测试面试题总结-224(题目+回答)
网络·python·安全·web安全·adb·渗透测试·安全狮
程序员三藏10 小时前
软件测试之环境搭建及测试流程
自动化测试·软件测试·python·功能测试·测试工具·职场和发展·测试用例
10岁的博客10 小时前
PyTorch快速搭建CV模型实战
人工智能·pytorch·python
寒秋丶10 小时前
AutoGen多智能体协作、人机交互与终止条件
人工智能·python·microsoft·ai·人机交互·ai编程·ai写作
Turnsole_y11 小时前
pytest与Selenium结合使用指南
开发语言·python
AI量化投资实验室12 小时前
年化398%,回撤11%,夏普比5,免费订阅,5积分可查看参数|多智能体的架构设计|akshare的期货MCP代码
人工智能·python
夫唯不争,故无尤也12 小时前
AI调度框架全解析:从通用到LLM专用
python·大模型·调用框架