Agent 接入云 Lighthouse 部署的自定义 MCP Server,Prompt 驱动产品评论反馈智能化总结,并调用 Tool 自动推送公司微信群
背景
在当下,随着 LLM、RAG、MCP 和 Agent 等相关技术的持续迭代,
传统企业数字化转型步伐已逐渐从自动转向智能。
过去,企业要想分析用户评论、收集反馈,需要专人去采集数据、分析数据、撰写报告等等,
不仅需要多个岗位职能密切协调工作,而且流程长、时效差、还容易出错,
等到结论出来时,用户声音已经错过最佳响应时机。
最近有一个类似的需求,我通过 Agent 外置自建 MCP Server,
借助 AI 和云原生,全流程赋能公司的日常产品反馈总结分析巡检流程,大大节省了时间和人力成本,
特此分享给大家,数据已脱敏,
数据接入 MCP Server
MCP 有三种传输格式,我在之前的文章中介绍过,
这里我们采集 sse transport
上游无论是自有 API,还是需要爬虫工程师采集,我们都可以统一到 MCP Server 中去,
首先创建 MCP 服务
ini
from mcp.server.fastmcp import FastMCP
mcp = FastMCP(name="ProductReviewQuery",
instructions="一个产品评论提取器,可根据关键词和时间段查询产品的评论数据。")
然后定义 MCP Tool,
python
@mcp.tool()
async def query_product_comment(
keywords: list[str],
start_time: str | None = None,
end_time: str | None = None,
) -> List[Dict[str, Any]]:
"""
根据 keywords 和时间范围查询新闻,返回产品评论列表,keywords 可为空
参数:
- keywords: 关键词列表
- start_time: 起始日期,格式 "YYYY-MM-DD"
- end_time: 结束日期,格式 "YYYY-MM-DD"
返回:JSON list[dict]
"""
tool 函数的实现可以根据公司数据源的具体业务情况实现,这不是重点,
在此我想强调的是注释的重要性,一定要写好注释,他能帮助 LLM 更好理解 tool 的功能
发送报告 MCP Server
可能有很多发送渠道,在此我以发送到企业微信群为例,
python
from mcp.server.fastmcp import FastMCP
import requests
# 创建 MCP 实例
mcp = FastMCP(
name="WechatBot",
instructions="一个企业微信群消息机器人,可发送 MarkDown 格式的聊天消息至指定群。"
)
@mcp.tool()
async def send_wechat_bot(
msg_content: str,
):
"""
微信机器人,发送消息至群聊。
参数:
- msg_content: 待发送的消息,markdown 格式
"""
wechat_group_bot_webhook_key = 'buyixiao mark 改成你公司群聊的 webhook'
headers = {"Content-Type": "text/plain"}
send_url = f"https://qyapi.weixin.qq.com/cgi-bin/webhook/send?key={wechat_group_bot_webhook_key}"
send_data = {
"msgtype": "markdown", # 消息类型,此时固定为markdown
"markdown": {
"content": f"{msg_content}"
}
}
res = requests.post(url=send_url, headers=headers, json=send_data)
MCP Server 上云
由于我们是使用的是 Python 开发,上云第一步肯定是 Python 虚拟环境的管理,
使用 pip 或者 uv 均可,个人更推荐 uv,一个旨在解决 pip
长期存在的性能、依赖管理和用户体验痛点的全新包管理工具。
可以通过三种方式安装 uv,官方安装脚本、下载二进制包,甚至是直接 pip install uv,具体教程不再展开,可自行搜索,
所需要的包 mcp、requests 等安装完毕后,就可以像部署传统 Flask Web 项目那样在 Lighthouse 上完成部署 MCP ,注意 endpoint 是 /sse 即可

而云给我们提供了更方便的办法,在创建 LightHouse 时可以选择 MCP Server 模板,
在安装好环境后可直接 uv 命令形式启动 MCP Server,具体可以参考官方文档
mcp server 部署后,我们可以在浏览器打开 server 地址:
出现以下响应结果(定时比如每隔 15s ping 一次),即为部署成功,
PS:由于是私有化 MCP Server ,且未加鉴权,地址已打码

LLM 接入 MCP Server
LLM 应用本身就是 Host,
可以是 Cherry Studio、Claude Desktop、IDE 内的 AI 助手等,这些都内置了 MCP 协议客户端,只需要配置 MCP Server 地址等,就可以实现接入,
也可以是以代码形式开发的 LLM 应用,这样的话就需要自己编写 client 连接到 MCP Server,即 ClientSession,这在我之前的文章中有所提及,
这里我们选择前者。
Prompt 工程驱动 LLM 分析数据和发送报告
根据具体分析任务来,无论是探索性分析,还是带着目的性分析,都可以交给 llm,
在此我抛砖引玉的完整 promt 如下:
markdown
你是一名专业的数据分析师。
你的任务是:
1. 从 **ProductReviewQuery MCP Server** 获取产品评论数据。
- 数据字段包括:赞同数 (agree_count)、是否推荐 (is_recommend)、产品体验时长 (play_duration, 单位分钟)、评论发布日期 (publish_time)、评论文本内容 (content)。
- 不要虚构数据,严格基于 MCP Server 返回的内容。
2. 基于数据生成一份 **专业的分析报告**,报告结构如下:
- **数据概览**:评论总数、推荐比例、平均赞同数、平均体验时长等。
- **趋势分析**:评论数量和推荐比例随时间的变化趋势,是否存在活跃期或推荐率高峰。
- **用户情绪与内容分析**:从评论文本中提炼主要正面反馈与负面反馈,总结关键词和主题。
- **相关性洞察**:是否推荐与体验时长、赞同数的关系,情绪与赞同数的关系。
- **结论与建议**:对产品优化、用户体验改进、推广运营提出可执行建议。
3. 将生成的报告通过 **WechatBotMCP** 发送给指定用户。
- 输出时要使用 Markdown 格式,逻辑清晰、分章节排版。
- 语言风格保持专业、简洁,避免冗长的废话。
请按以上步骤严格执行任务。
最终效果


整个 Agent 运行起来后,不仅数据归纳分析报告不需要人工,甚至连发送报告都不需要人工,全交给 LLM 自主决策了。
整体的数据概览、趋势分析、用户情绪和内容分析、以及相关性洞察等分析结果一目了然,
除了这种对话式 Agent,我们也可以选择一些工作流式 Agent,可视化编排 workflow,这里不再赘述。
总结
随着 大模型(LLM)和 Agent 技术 的成熟,企业终于有机会让这些重复性、低价值但高频的工作实现自动化,
最重要的是:智能化,因为以往此类任务,无论是自动化的 workflow 还是 pipeline ,都绝无可能拥有 Agent 这般的记忆和推理能力。
通过 AI 智能化爬虫解析技术提取数据,替代或节省传统的爬虫工程师,
再通过自建 Data MCP Server,让 LLM 作为 Host,调用 MCP Tool Session,client 到靶向精准、动态更新的数据源,
然后借助 Prompt 工程能力,替代或辅助传统的数据分析流程,
最后再编写一个 Notify MCP Server,让 LLM 把分析报告自动发送到企业微信群,
如此这般全自动、智能化、可扩展的 Agent 的实现,意味着,企业不再需要"人肉搬运和加工"数据,而是进入一个 实时响应、智能分析、自动推送 的全新阶段。 它不仅仅是效率的提升,更是 企业自动化和智能化的必然趋势。