LangChain1.0智能体开发:MCP

阅读本文您将获得:

  • 使用mcp包创建自己的MCP服务。
  • 使用langchain-mcp-adapters库连接MCP服务。
  • 智能体调用MCP工具。

模型上下文协议(Model Context Protocol, MCP)是一种开放协议,用于标准化应用程序向大语言模型(LLM)提供工具和上下文的方式。LangChain智能体可借助langchain-mcp-adapters库,使用在MCP服务器上定义的工具。

1、安装

若要在 LangGraph 中使用 MCP 工具,请安装 langchain-mcp-adapters 库:

bash 复制代码
pip install langchain-mcp-adapters

2、传输类型

模型上下文协议(MCP)支持多种用于客户端 - 服务器通信的传输机制:

  • 标准输入输出(stdio):客户端将服务器作为子进程启动,并通过标准输入 / 输出进行通信。最适用于本地工具和简单配置场景。
  • 可流式传输的超文本传输协议(Streamable HTTP):服务器作为独立进程运行,处理HTTP请求。支持远程连接和多客户端访问。
  • 服务器发送事件(Server-Sent Events, SSE):可流式传输超文本传输协议(Streamable HTTP)的一种变体,针对实时流式通信进行了优化。

3、使用MCP工具

langchain-mcp-adapters库支持智能体使用在一个或多个MCP服务器上定义的工具。

python 复制代码
import asyncio
from langchain_mcp_adapters.client import MultiServerMCPClient  
from langchain.agents import create_agent
from langchain.chat_models import init_chat_model
from config import api_key, api_base

def init_model():
    model = init_chat_model(
        api_key = api_key,
        base_url = api_base,
        model = "Qwen/Qwen3-8B",
        model_provider = "openai",
        temperature = 0.7,
    )
    return model
model = init_model()

client = MultiServerMCPClient(  
    {
        "math": {
            "transport": "stdio",  # Local subprocess communication
            "command": "python",
            # Absolute path to your math_server.py file
            "args": ["/your/path/to/mcp/math_server.py"],
        },
        "weather": {
            "transport": "streamable_http",  # HTTP-based remote server
            # Ensure you start your weather server on port 8000
            "url": "http://localhost:8000/mcp",
        }
    }
)

async def main():
    # 异步获取工具
    tools = await client.get_tools()  
    agent = create_agent(
        model,
        tools  
    )
    math_response = await agent.ainvoke(
        {"messages": [{"role": "user", "content": "what's (3 + 5) x 12?"}]}
    )
    print("Math response:", math_response)
    weather_response = await agent.ainvoke(
        {"messages": [{"role": "user", "content": "what is the weather in nyc?"}]}
    )
    print("Weather response:", weather_response)

# 运行异步主函数
if __name__ == "__main__":
    asyncio.run(main())

4、自定义MCP服务器

若要创建自己的MCP服务,可使用mcp库。该库提供了一种简单的方式来定义工具,并将这些工具作为服务器运行。

bash 复制代码
pip install mcp

可以下参考实现,在MCP工具服务器上测试你的智能体。

python 复制代码
from mcp.server.fastmcp import FastMCP

mcp = FastMCP("Math")

@mcp.tool()
def add(a: int, b: int) -> int:
    """Add two numbers"""
    return a + b

@mcp.tool()
def multiply(a: int, b: int) -> int:
    """Multiply two numbers"""
    return a * b

if __name__ == "__main__":
    mcp.run(transport="stdio")
python 复制代码
from mcp.server.fastmcp import FastMCP

mcp = FastMCP("Weather")

@mcp.tool()
async def get_weather(location: str) -> str:
    """Get weather for location."""
    return "It's always sunny in New York"

if __name__ == "__main__":
    mcp.run(transport="streamable-http")

5、有状态工具使用

对于在工具调用之间维持上下文的有状态服务器,可使用 client.session() 创建一个持久化的客户端会话。

python 复制代码
from langchain_mcp_adapters.tools import load_mcp_tools

client = MultiServerMCPClient({...})
async with client.session("math") as session:
    tools = await load_mcp_tools(session)

6、总结

  • 使用mcp包创建自己的MCP服务。
  • 使用langchain-mcp-adapters库连接MCP服务。
  • 智能体调用MCP工具。
相关推荐
后端小张2 小时前
【JAVA进阶】Spring Boot 核心知识点之自动配置:原理与实战
java·开发语言·spring boot·后端·spring·spring cloud·自动配置
吴佳浩4 小时前
LangChain 深入
人工智能·python·langchain
X***C8627 小时前
SpringBoot:几种常用的接口日期格式化方法
java·spring boot·后端
i***t9197 小时前
Spring Boot项目接收前端参数的11种方式
前端·spring boot·后端
o***74178 小时前
基于SpringBoot的DeepSeek-demo 深度求索-demo 支持流式输出、历史记录
spring boot·后端·lua
9***J6288 小时前
Spring Boot项目集成Redisson 原始依赖与 Spring Boot Starter 的流程
java·spring boot·后端
S***q1928 小时前
Rust在系统工具中的内存安全给代码上了三道保险锁。但正是这种“编译期的严苛”,换来了运行时的安心。比如这段代码:
开发语言·后端·rust
v***7948 小时前
Spring Boot 热部署
java·spring boot·后端
追逐时光者8 小时前
C#/.NET/.NET Core优秀项目和框架2025年11月简报
后端·.net
码事漫谈8 小时前
Reactor网络模型深度解析:从并发困境说起
后端