用 Leonardo.AI 和 FLUX Dev 模型生成(作者制作)
现在 AI 世界最新的趋势是 MCP(模型上下文协议)。
如果听起来无聊或者很复杂,别担心 ------ 这是个非常简单又有效的工具,可以帮你从零开始构建更好的 AI 智能体。
在这篇说明里,你会了解 MCP 是什么、它为什么重要、还有怎么从零开始构建你自己的 MCP 智能体。
AI 智能体是怎么运作的?
在幕后,一个 AI 智能体有一个思考模型和一个推理模型,它们和某个工具连接起来。
用 Napkin.AI 生成(作者制作)
这个"思考/推理模型 + 工具"的组合,就是从零开始构建 AI 智能体的方式。
模型可以创建一个任务列表,然后用它能访问的工具开始执行这些任务。
大多数情况下,要把你的思考模型(像 Gemini、GPT 或其它 LLM)和某个工具连接起来,通常都很复杂又花时间。
但有了 MCP 服务器的帮助,这个过程就简单多了,而且是标准化的,可以让你和工具互动并大规模构建智能体。
什么是 MCP?
MCP,全称是模型上下文协议(Model Context Protocol),是 Anthropic 最近推出的。
它是一个开源协议,标准化了 AI 助手如何连接到数据所在的系统,比如内容仓库、业务工具和开发环境。
简单来说,MCP 帮你连接本地数据库或远程服务器,这些可以是你想用的任何 API。
可以把 MCP 想象成 AI 应用的 USB-C 接口 ------ 它为任何 LLM 和任何工具之间提供了标准化的通信方式,不管是本地数据库、API 还是远程服务器。
为什么 MCP 很重要
MCP 重要,是因为它提供了一份不断增长的"预构建集成列表",你的 LLM 可以直接插进去用。
用 Napkin.AI 生成(作者制作)
以前你得一个个地把 API 接到你的 LLM,现在用 MCP,你只需要"插上就用"。
这种灵活性让你可以轻松切换 LLM 提供商和厂商,也提供了最佳实践,帮助你在自己的系统里保护数据安全。
MCP 本质上是 LLM 和工具之间的一个开放标准。
MCP 怎么运作
MCP 的基本架构是:一个客户端(可以是云服务、IDE 或模型)通过 MCP 服务器,和本地数据源或远程服务器(比如 web API)通信。
这让你和任何工具之间的通信和任务执行变得轻松多了。
比如你想构建一个能在 Amazon 上下单的 AI 智能体,以前你得手动开发每个动作(打开 Amazon、登录、加入购物车等)。
现在有了 MCP,你只需要和你的 LLM 沟通,就能完成这些操作,根本不需要一个个手动开发。
构建 MCP 智能体
目前有两种主要方式构建 MCP 智能体:
1. 在 Visual Studio Code 中用 Cline:
- 安装 Visual Studio Code 和 Cline 扩展。
作者在 VS Code 上的截图
- 输入一个 API key(比如来自 OpenRouter)来让 Cline 运行。
作者在 VS Code 上的截图
- 在 Cline 中直接搜索并安装 MCP 服务器。
作者在 VS Code 上的截图
比如你可以安装 Google Calendar MCP,把它接入你的 AI 智能体,让它能访问和管理你的日程安排。
2. 用 Cursor:
Cursor 是一个由 AI 驱动的 IDE,可以帮你用 AI 写代码。
- 下载 Cursor 并设置一个项目文件夹。
截图来自 Cursor.com
截图来自 Cursor 设置页面
- 用 Smithery 浏览和安装 MCP,比如 Sequential Thinking 或 GitHub MCP。
截图来自 Smithery.ai
Smithery.ai Sequential Thinking MCP 安装的截图
Cursor 的截图
要用 GitHub MCP,你需要一个 GitHub 个人访问令牌(personal access token),这样才能连接并执行创建或更新代码仓库里的文件等操作。
听着,我知道这些信息很多 ------ 我尽量说得简短又把重点全都塞进来了。
所以我特意做了这些图文步骤指引(你应该能在文章里各处看到),保证你不会迷路。
MCP 真的在彻底改变这个领域!
我们说的是:
• 再也不用为连接 API 头疼了
• 自动操作 GitHub 而不用碰 GitHub
• 实时搜索网页真的能用上了
• 还有那种"插上即用"的美妙感受
说个小但重要的提醒:一定要仔细检查 API 权限!这些工具很强大,但记住------能力越大,嗯,你懂的。