树莓派5:充当streamable-http类型的MCP服务器

为了尽量提高本地部署的小参量打折精度LLM获取数据时的幻觉问题,最近研究了下MCP。stdio和streamable-http方式都尝试了一下,在我的测试场景下都可行。鉴于streamable-http方式部署更为灵活,因此也尝试了一下用树莓派5充当streamable-http类型的MCP服务器。其实方法是通用的,跨平台完全可用。

我的测试场景是数据库内存放一套员工信息,模拟我知道某人姓名或前几个字,希望查询到他的工号。

跑通后在Cherry Studio中实际效果如下:

代码编写也很简单。首先还是环境准备,先创建一个名为mcp的环境:

bash 复制代码
source ~/anaconda3/bin/activate
conda create -n mcp python=3.11
conda activate mcp

然后安装fastmcp主框架。顺带着把数据库连接库也一起装了(我的计划里mssql和mysql都会用到):

python 复制代码
pip install fastmcp pymssql pymysql

然后写python(这里只用到了mysql。调用mssql的代码整体类似,个别细节上略有不同),保存为server.py

python 复制代码
from fastmcp import FastMCP
import pymysql
import json
from decimal import Decimal
from datetime import datetime, date
from pymysql.cursors import DictCursor

# ---------- 通用序列化补丁 ----------
def json_default(obj):
    if isinstance(obj, (datetime, date)):
        return obj.strftime('%Y-%m-%d %H:%M:%S')[:19]
    if isinstance(obj, Decimal):
        return float(obj)
    raise TypeError(f'Unsupported type: {type(obj)}')

mcp = FastMCP("Demo")          # 1. 实例化

@mcp.tool()                    # 2. 注册工具
def query_staff(emp_name: str) -> str:
    """
    根据提供的姓名查询员工基本信息。以二维表格方式呈现。
    Query basic employee infomation by employee name.

    :param emp_name: 姓名。
    """

    rows = []

    # 这里去数据库查
    conn = pymysql.connect(
        host="你的mysql服务器",
        user="你的用户名",
        password="你的密码",
        database="你的数据库",
        charset="utf8mb4",
        cursorclass=DictCursor
    )
    sql = """ 
        select * from Sheet1 where staff_name like %s 
    """

    try:
        with conn.cursor() as cur:
            cur.execute(sql, (emp_name + "%",))
            rows = cur.fetchall()          # 一次性拿列表
    except pymysql.DatabaseError as e:   # 数据库层错误
        print('数据库报错:', e)
    except Exception as e:               # 其他所有异常
        print('其他异常:', e)
    finally:
        conn.close()

    return json.dumps(rows, ensure_ascii=False, default=json_default)


if __name__ == "__main__":
    # 3. 以 streamable-http 方式监听 8000 端口
    mcp.run(transport="streamable-http", host="0.0.0.0", port=8000, path="/mcp")

需要注意的是:

1、@mcp.tool() 是第一个关键。我的这个小示例里仅提供了一个工具(query_staff),但实际上可以继续添加其他工具 ,只要在函数前也加上@mcp.tool()。

2、注意函数体内的这段注释,

"""

根据提供的姓名查询员工基本信息。以二维表格方式呈现。

Query basic employee infomation by employee name.

:param emp_name: 姓名。

"""

看着是"注释",但实际上有它极为重要的用途,回答了一个很现实的问题:LLM怎么知道什么时候去触发调用MCP工具,又怎么知道那个词其实是参数?

运行就一句话,python server.py。一切正常的话看起来应该这样:

Cherry Studio中需要配置该MCP,参考信息如下。IP地址改成你实际的。以目前的测试情况看请求头并不能省略:

最后想说的是,给LLM会话工具配置mcp也不是万能的。小参量LLM的幻觉表现之一就是它会不调用工具直接编个结果扔给你。因此如果在意数据准确性的话,建议每次都要看下答复上方是否出现了成功调用工具的记录。

相关推荐
俊哥V1 小时前
每日 AI 研究简报 · 2026-04-09
人工智能·ai
Agent产品评测局1 小时前
企业数据处理自动化落地,抓取分析全流程实现方案 —— 2026企业级智能体选型与技术路径深度解析
运维·人工智能·ai·自动化
熊猫钓鱼>_>2 小时前
从“流程固化“到“意图驱动“:大模型调智能体调Skill架构深度解析
ai·架构·大模型·llm·agent·skill·openclaw
xyz_CDragon2 小时前
OpenClaw Skills 完全指南:ClawHub 安装、安全避坑与自定义开发(2026)
人工智能·python·ai·skill·openclaw·clawhub
2501_948114242 小时前
DeepSeek V4 全面实测:万亿参数开源模型的工程落地与成本推演
人工智能·ai·开源
南师大蒜阿熏呀2 小时前
openclaw 多智能体协同简易版案例实战
ai·openclaw
Agent产品评测局3 小时前
互联网行业自动化平台选型,运营全流程提效指南:2026企业级智能体架构与实战全解析
运维·人工智能·ai·chatgpt·架构·自动化
就是这么拽呢3 小时前
论文查重低但AIGC率高,如何补救?
论文阅读·人工智能·ai·aigc
媒介发稿小能手4 小时前
技术视角下的品牌传播范式迁移:当“搜索引擎优化”让位于“媒体收录逻辑”
大数据·搜索引擎·ai·产品运营·媒体
他们叫我技术总监4 小时前
零依赖!FineReport11 快速对接 TDengine 数据库:从驱动部署到报表实现
大数据·数据库·ai·tdengine