使用 LLM + MCP 在过早客论坛冲浪🏄♀️
想法
作为一名开发者,我经常需要了解过早客论坛的讨论动态,但每次都要手动浏览很麻烦。能不能让AI助手直接帮我获取和分析论坛内容呢?
例如,问 AI:
今天过早客最热的话题是什么?
AI 答:
今天讨论最热烈的话题是【武汉地铁票价调整】,共有128条回复。
主要观点分为三类:
1. 觉得涨价合理(运营成本压力)
2. 强烈反对(影响日常出行)
3. 建议差异化票价
是不是比自己一页页刷省事多了?
于是我开发了 guozaoke-mcp-server
------ 首个专门用于过早客论坛的MCP服务器。现在,你可以直接问LLM:"请帮我看看过早客论坛今天的热门话题",它就能实时获取并分析论坛内容。
实际效果
什么是MCP
Model Context Protocol (MCP) 是 Anthropic 提出的一个标准协议(基于 JSON RPC),作用是让LLM能标准化地访问外部数据。
传统方式 vs MCP方式:
传统:用户 → 浏览器 → 论坛网站 → 人工分析
MCP:用户 → AI → MCP服务器 → 论坛网站 → 智能分析
guozaoke-mcp-server核心功能:两个Tools
1. 话题列表获取
javascript
// 用户问:"过早客最新有什么话题?"
// AI调用:fetch-guozaoke-topic-list
// 返回:结构化的话题数据
支持分页浏览,解析HTML转为JSON格式,方便AI理解和处理。
2. 话题详情获取
javascript
// 用户问:"帮我看看第3个话题的详细讨论"
// AI调用:fetch-guozaoke-topic-details
// 返回:完整的帖子内容和所有回复
支持检测登录状态,支持Cookie认证访问需要权限的内容。
快速开始
json
{
"mcpServers": {
"guozaoke-mcp-server": {
"type": "stdio",
"command": "npx",
"args": [
"-y",
"guozaoke-mcp-server"
],
"env": {
"GUOZAOKE_COOKIE": "..."
}
}
}
}