MCP协议的简介和简单实现

​模型上下文协议(Model Context Protocol,简称 MCP)一种开放的、通用的标准化协议, 旨在标准化大型语言模型(LLM)与外部数据源或工具之间的交互方式。

MCP 的本质是为 AI 模型提供统一的交互标准;

MCP 由三个核心组件构成:Host、Client 和 Server。

Host 主机: 大模型的应用程序, 负责接收你的提问并与 大模型交互,比如聊天机器人。

MCP Client 客户端:运行在主机(host)里的客户端,当有需要的时候被激活,与MCP Server 建立连接(客户端和服务器是一对一连接)。

MCP Server 服务器:负责向客户端(MCP Client )提供 资源、提示 和 工具 的服务器。

工作流程:

举个栗子: 问聊天机器人 明天天气怎么样?

① 用户提问:用户通过聊天机器人询问 "明天天气怎么样?"。

②意图解析: 聊天机器人(Host主机)将问题发给大模型,分析可用的工具,并决定用哪一个工具,如查询天气的工具;

③ 工具调用: 聊天机器人(Host主机)使用MCP Client 客户端向MCP Server 服务器发出请求,调用工具

④结果整合: 工具调用的结果送回给大模型, 结合执行结果生成自然语言的回应。

⑤自然语言输出: 最终展示给用户

MCP 协议内置了两种标准传输方式:标准输入/输出(stdio) 和 Server-Sent Events(SSE) 。

stdio 传输通过 标准输入输出流 实现客户端与服务器之间的通信,适用于本地集成与命令行工具。

SSE 传输 通过 HTTP POST 请求实现 客户端到服务器通信,同时支持 服务器到客户端流式传输 。

MCP协议建立在 JSON-RPC 2.0 之上,定义了AI模型与外部工具之间的标准通信规范。

底层传输协议可以是 http/https、WebSocket ,tcp等

使用langchain实现一个简单的demo
stdio类型

mcp_server_stdio.py

(程序不需要启动)

复制代码
from fastmcp import FastMCP

mcp = FastMCP("Math")

@mcp.tool()
def add(a: int, b: int) -> str:
    """Add two numbers"""
    return str(a + b)

@mcp.tool()
def multiply(a: int, b: int) -> str:
    """Multiply two numbers"""
    return str(a * b)

if __name__ == "__main__":
    mcp.run(transport="stdio")

sse类型

mcp_server_sse.py , 这个需要启动

复制代码
from mcp.server.fastmcp import FastMCP

mcp = FastMCP("Weather")

@mcp.tool()
async def get_weather(location: str) -> str:
    """Get weather for location."""
    print(f"Getting weather for {location}")
    return "It's always sunny in New York"

if __name__ == "__main__":
    mcp.run(transport="streamable-http")

客户端

mcp_client.py

偶尔可能因为网络不好, 启动时注册阿里mcp会导致失败, 重新启动一下

复制代码
import asyncio
from typing import List
from langchain_mcp_adapters.client import MultiServerMCPClient  
from langchain.agents import create_agent,AgentState
from langchain_core.messages import AIMessage,ToolMessage
from langchain_openai import ChatOpenAI

QWEN_OPENAI_API_BASE = "https://dashscope.aliyuncs.com/compatible-mode/v1" #OPENAI API  
QWEN_API_KEY = "sk-*************************************"  
QWEN_MODEL = "qwen-plus"

# 设置DeepSeek API Key和基础地址
llm = ChatOpenAI(
    model=QWEN_MODEL,
    openai_api_key=QWEN_API_KEY,
    openai_api_base=QWEN_OPENAI_API_BASE,  # 关键配置
    temperature=0.7,
)

from langchain.agents.middleware import after_model,before_model,before_agent,after_agent,wrap_tool_call
from langchain.tools import tool, ToolRuntime
from langgraph.runtime import Runtime


#  这里是因为返回的ToolMessage中content类型是List, 而langchain中需要的是str类型
@before_model
async def before_model_messages(state: AgentState, runtime: Runtime) -> dict | None:
    """Remove old messages to keep conversation manageable."""
    message_list = state["messages"]
    for message in message_list:
         if isinstance(message, ToolMessage):
             if type( message.content) is not str:
                message.content = str(message.content)
    return {"messages": message_list}

async def main():
    client = MultiServerMCPClient(  
        {
            "mcp_sever_stdio": {
                "transport": "stdio",  
                "command": "python",
                # Absolute path to your math_server.py file
                "args": ["D:/MyWork/demo/mcp_server_stdio.py"],
            },
            "mcp_sever_http": {
                "transport": "streamable_http",  # 就是启动后的 mcp_server_sse.py
                # Ensure you start your weather server on port 8000
                "url": "http://localhost:8000/mcp",
            },
             "ali_news_mcp": {  #阿里云百炼_联网搜索
                 "transport":"sse",   # 根据实际填写   stdio/sse/streamable_http/ 也可能有http
                "url": "https://dashscope.aliyuncs.com/api/v1/mcps/WebSearch/sse",
                "headers": {"Authorization": "Bearer sk-*************************************""}
             },
            "ali_logistics_mcp": {  #阿里MCP服务 阿里云百炼_全国快递物流查询
                "transport":"streamable_http",   # 根据实际填写   stdio/sse/streamable_http/ 也可能有http
                "url": "https://dashscope.aliyuncs.com/api/v1/mcps/market-cmapi021863/mcp",
                "headers": {"Authorization": "Bearer sk-*************************************""}
             }
  }
    )


    mcp_tools = await client.get_tools()
   # print(mcp_tools)  
    agent = create_agent(
        model=llm,
        tools = mcp_tools,
        middleware=[before_model_messages],
        debug= True,
    )
    math_response = await agent.ainvoke({"messages": [{"role": "user", "content": "what's (3 + 5) x 12?"}]})
    print("\n math response:", math_response)
    print("\n math response:", math_response["messages"][-1].content)

    weather_response = await agent.ainvoke({"messages": "what is the weather in nyc?"})
    print("\n Weather response:", weather_response)
    print("\n Weather response:", weather_response["messages"][-1].content)


    hz_response = await agent.ainvoke({"messages": "查询一下杭州今日天气"})
    print("\n hz_response response:", hz_response)
    print("\n hz_response response:", hz_response["messages"][-1].content)

    
    logistics_response = await agent.ainvoke({"messages": "查询一快递 434*********"})
    print("\n logistics_response response:", logistics_response)
    print("\n logistics_response response:", logistics_response["messages"][-1].content)

if __name__ == "__main__":
    asyncio.run(main())

相关包版本

复制代码
python 3.12
mcp>=1.24.0
fastmcp>=2.14.1
langchain>=1.0.7
langchain-mcp-adapters>=0.2.1
相关推荐
凤希AI伴侣20 小时前
从组装工到超级个体:AI伴侣开发中的工具整合与体验优化
人工智能·凤希ai伴侣
倪某某21 小时前
阿里云ECS GPU部署WAN2.2
人工智能·阿里云·云计算
InfiSight智睿视界21 小时前
连锁店管理力不从心?让智能体接管30%重复工作
人工智能·智能巡检系统·ai巡检
围炉聊科技21 小时前
国内AI智能眼镜开放平台全景解析:从SDK到生态建设
人工智能
golang学习记21 小时前
Claude Code之父首次揭秘:13个CC独门AI编程使用技巧!
人工智能
狗狗学不会21 小时前
视觉检测的新范式:从“像素感知”到“时序语义推理”—— 基于 Qwen3-VL 与时序拼图策略的通用事件检测系统
人工智能·计算机视觉·视觉检测
song1502653729821 小时前
如何选择适合的AI视觉检测设备?
人工智能
FE_C_P小麦21 小时前
AI Prompt 提示词模板【转载】
人工智能
桂花饼21 小时前
量化双雄争霸:九坤 IQuest-Coder-V1 的技术突破
人工智能·aigc·nano banana 2·openai兼容接口·claude opus 4.5·sora2 pro
undsky_21 小时前
【n8n教程】:RSS Feed Trigger节点,玩转RSS订阅自动化
人工智能·ai·aigc·ai编程