使用Wireshark抓包看看MCP背后的请求链路

前言

上回作者浅浅尝试了一口本地MCP服务的搭建,并成功运用在AI IDE中,详情在AI assistant本地部署Continue.dev + Ollama + MCP Server。 那么此次好奇这个提供了数据库query工具的MCP服务背后,究竟是用怎样的prompt与LLM交互呢?

动手

Wireshark抓包本地Ollama流量

  1. 打开Wireshark,选择关注本地Loopback:lo0

  2. 过滤Ollama服务端口 Ollama的默认服务端口是11434,可以在Terminal中检查状态:

bash 复制代码
# Linux/macOS
lsof -i :11434

# Windows
netstat -ano | findstr 11434

在Wireshark中过滤http and tcp.port == 11434

  1. 再次使用AI IDE,发起与AI agent的对话

  2. 停止抓包,保存capture,分析

  3. 重组数据流 a. 右键点击任意一个 HTTP 数据包(如 POST /api/chat)。 b. 选择 Follow > HTTP Stream。

  4. 分析请求体和返回体 这里我们会看到,Ollama的返回中采用了SSE的流式返回,会有多个json片段。这里可以将这些json片段保存至文件中,再通过jq快速提取:

bash 复制代码
cat sse_response.txt | jq -r '.message.content // empty' | tr -d '\n'

总结

分析MCP的tool_call请求体,可以帮助理解MCP背后的运行原理。(但这玩意儿是不是Token消耗的有点多啊?)

相关推荐
皇族崛起20 小时前
金融 - 搭建 图谱挖掘工作流 调研
金融·llm·知识图谱·neo4j·多智能体·findpaper
字节跳动安全中心21 小时前
MCP 安全“体检” | 基于 AI 驱动的 MCP 安全扫描系统
安全·llm·mcp
聚客AI1 天前
🌈提示工程已过时?上下文工程从理论到实践的完整路线图
人工智能·llm·agent
大模型教程1 天前
AI Agent竞争的下半场:决胜关键不在模型,而在系统架构
程序员·llm·agent
dundunmm1 天前
【数据集】WebQuestions
人工智能·llm·数据集·知识库问答·知识库
大模型教程1 天前
基于DeepSeek-R1手搓AI Agent智能体(手把手,个人电脑也能玩)
程序员·llm·agent
AI大模型1 天前
基于Qwen千问实现自然语言数据分析AI Agent智能体(手把手,个人电脑也能玩哦)
程序员·llm·agent
智泊AI1 天前
有什么技巧可以提升RAG召回率?
llm
风雨中的小七1 天前
解密prompt系列61. 手搓代码沙箱与FastAPI-MCP实战
llm·nlp
AI大模型2 天前
斩获59.4K星!一款本地部署的开源私人知识库工具!
程序员·llm·agent