通俗易懂介绍MCP是什么,MCP的使用

一. MCP是什么

MCP是Model Context Protocol的缩写,也就是"模型上下文协议",由 Anthropic 公司于 2024 年 11 月 26 日提出。

模型:指AI模型,比如大语言模型:阿里的Qwen、深度求索的DeepSeek、OpenAI的GPT、Google的Gemini、Anthropic的Claude等等。

上下文:指AI模型在运行时所需的关键信息集合,它可以让AI模型能够更好的了解任务背景、调用外部工具或数据源,并生成符合场景需求的结果。

协议:定义了一个怎么与AI系统进行数据交互的标准和规范。

可以将 MCP 想象成一个标准化的"信封",第三方应用或工具按照这个标准化的格式,把各种资料(上下文)装好递交给AI模型。

官网的架构图(官网的架构图画得不是很准确,我这里稍微修正了下)

通过上图可以看出,假设你的计算机上装了一个带 MCP 客户端的工具(比如Claude Desktop、Cursor等),这个工具通过MCP协议来连接一个个MCP服务,由这些MCP服务提供各种数据、资源、或功能。从而让AI模型打破知识训练的截止性,局限性,实现更复杂的功能。

为什么MCP最近这么火了呢?因为越来越多的厂商纷纷开始支持MCP协议,支持的厂商多了,慢慢就成了行业的标准了。(在一个行业,提出一个标准不难,让大家都遵守你的标准才厉害)

OpenAI的首席执行官Sam Altman发文ChatGPT也将支持MCP:


MCP 服务如雨后春笋般一下都涌了出来,MCP 市场也一下多了起来

mcp.so/zh/servers MCP.so 上目前已经有9千多个MCP服务

魔搭社区的MCP 广场。还可以在线调试你的MCP服务 MCP 广场 · 魔搭社区

mcpmarket.cn/

ps:目前这些MCP市场对于MCP服务的发布没什么审核,所以质量还参差不齐,鱼龙混杂,大家在使用时尽量选官方和大厂的。

二. MCP的使用

只要带MCP客户端的应用都可以调用MCP服务,像Claude Desktop、 Cherry Studio、Cursor、IDE工具等等

下面我们演示在 Cherry StudioCursor 里使用MCP服务。这里以调用高德地图的MCP服务为例

获取高德key
创建应用和 Key-MCP Server|高德地图API

高德MCP服务调用地址:
mcp.amap.com/sse?key=上面获...

在 Cherry Studio 里调用MCP服务

Cherry Studio的安装请参考我之前的文章:
Cherry Studio 下载和安装教程

配置MCP服务,配置MCP服务主要就是用来告诉大模型,有哪些MCP服务可以调用,调用地址是什么,需要什么参数等等。前提是所使用的大模型要支持MCP调用

可以点击添加服务器一个一个添加,也可以点击右上角的编辑MCP配置,来编辑配置所有MCP服务。

在对话框,选择要使用的MCP服务,可以选择多个MCP服务

大模型会自己选择要调用哪些MCP服务的哪些工具:可以看到调用了maps_geo、maps_around_search

在 Cursor 里调用MCP服务

官网下载安装即可。用邮箱就可以注册登录 Cursor - The AI Code Editor

打开设置窗口,点击MCP服务配置

配置MCP服务

json 复制代码
{
  "mcpServers": {
    "amap-amap-sse": {
      "url": "https://mcp.amap.com/sse?key=上面获取的key"
    }
  }
}

查看服务状态

按下 CTRL + L 快捷键,打开对话框,开始测试。这里要选择Agent

我在广州长隆欢乐世界,附近有什么好吃的推荐。AI模型会自动选择要调用的工具,点击Run tool。

如果要允许Agent自动调用工具无须手动确认,勾选以下选项即可。

输出结果如下

至此,我们就了解了什么是MCP,以及MCP的初步使用。下一节,我将带大家自己开发一个MCP服务。


🔥《零基础小白AI实战教程:手把手教你打造专属的智能体》🚀 系列教程更新中!

✅ 已更新:AI实践虚拟化平台安装

✅ 已更新:Docker Desktop 安装

✅ 已更新:Ollama安装教程

✅ 已更新:DeepSeek私有化部署

✅ 已更新:Dify私有化部署

✅ 已更新:Dify接入大模型

✅ 已更新:Dify + DeepSeek搭建本地私有化知识库

✅ 已更新:Dify应用类型的选择

✅ 已更新:Dify升级指南

✅ 已更新:Dify节点的详细介绍(上)

✅ 已更新:Dify节点的详细介绍(中)

✅ 已更新:Dify节点的详细介绍(下)

✅ 已更新:RagFlow本地部署和使用

✅ 已更新:基于大模型的智能问数NL2SQL

✅ 已更新:通俗易懂介绍MCP是什么,MCP的使用


👉 关注公众号"北灵聊AI"获取最新更新,免费领取教程资料和源码

相关推荐
大千AI助手34 分钟前
SWE-bench:真实世界软件工程任务的“试金石”
人工智能·深度学习·大模型·llm·软件工程·代码生成·swe-bench
天上的光1 小时前
17.迁移学习
人工智能·机器学习·迁移学习
后台开发者Ethan2 小时前
Python需要了解的一些知识
开发语言·人工智能·python
猫头虎2 小时前
猫头虎AI分享|一款Coze、Dify类开源AI应用超级智能体快速构建工具:FastbuildAI
人工智能·开源·prompt·github·aigc·ai编程·ai-native
重启的码农2 小时前
ggml 介绍 (6) 后端 (ggml_backend)
c++·人工智能·神经网络
重启的码农2 小时前
ggml介绍 (7)后端缓冲区 (ggml_backend_buffer)
c++·人工智能·神经网络
数据智能老司机2 小时前
面向企业的图学习扩展——图简介
人工智能·机器学习·ai编程
mit6.8243 小时前
[AI React Web] 包与依赖管理 | `axios`库 | `framer-motion`库
前端·人工智能·react.js
一杯科技拿铁3 小时前
提升 LLM 推理效率的秘密武器:LM Cache 架构与实践
架构·llm
小阿鑫3 小时前
不要太信任Cursor,这位网友被删库了。。。
人工智能·aigc·cursor·部署mcp