MCP:人工智能时代的HTTP?探索AI通信新标准

每周跟踪AI热点新闻动向和震撼发展 想要探索生成式人工智能的前沿进展吗?订阅我们的简报,深入解析最新的技术突破、实际应用案例和未来的趋势。与全球数同行一同,从行业内部的深度分析和实用指南中受益。不要错过这个机会,成为AI领域的领跑者。点击订阅,与未来同行! 订阅:https://rengongzhineng.io/

早期互联网发展的阶段,人们或许还记得那片混乱景象------各种不同的协议和访问方式交错存在。直到HTTP(超文本传输协议)的出现,这一局面才得以改变。HTTP不仅仅是一个技术协议,更是标准化了客户端(浏览器)与服务器之间的通信方式,解锁了如今人们所熟悉的互联互通的网络世界。HTTP为信息自由流动提供了共同的语言。

时至今日,在人工智能革命迅猛发展的背景下,人们正在与越来越强大的大型语言模型(LLMs)和AI代理进行交互。然而,这种交互体验往往显得割裂。模型常常面临幻觉、难以无缝整合实时信息与工具,以及在用户授权下执行有用操作的困境。每一次请求,似乎仍然是孤立地被处理。

因此,一个关键问题浮现:人类是否正处于需要一种新基础协议层来支撑AI交互的关口?像模型上下文协议(Model Context Protocol,简称MCP)这样的协议,是否有可能成为AI时代中如同HTTP之于互联网时代那般基础的存在?

什么是模型上下文协议(MCP)?

模型上下文协议(MCP)是一个开放协议,旨在标准化应用程序向大型语言模型提供上下文的方式,以及AI助手如何连接到存储数据的系统,例如内容库、商业工具和开发环境。可以将其类比为AI应用程序的"USB-C接口",为AI模型提供一种标准化的方式,连接到各种数据源和工具。其核心目标是让LLMs和AI系统能够访问必要的上下文信息,从而生成更优质、更相关的响应。

MCP旨在解决模型与数据源孤立的问题。在过去,每接入一个新数据源,往往需要量身定制的集成工作;而通过MCP,一个统一、开放的标准将取而代之。

从技术上看,MCP促进了LLM应用程序(称为主机,例如AI聊天界面或集成开发环境)与外部数据源和工具服务器之间的无缝整合。主机应用中包含维护与这些服务器连接的客户端。通信则通过使用JSON-RPC 2.0消息的有状态连接来完成。

MCP为以下方面提供了标准化框架:

  • 共享上下文信息:向语言模型或用户提供相关的数据资源。

  • 暴露工具和功能:允许AI模型执行由服务器提供的功能或工具,前提是用户明确同意以确保安全。

  • 构建可组合工作流:使用模板化的消息(提示词)来创建集成的工作流。

本质上,MCP希望用一种更简单、可靠且可扩展的方式,取代当前支离破碎的集成方式,为AI系统提供安全的双向数据访问与功能操作。

HTTP类比:赋能革命

HTTP的伟大之处不仅仅在于其技术规范,更在于其作为创新催化剂的角色。通过创造一种简单、标准化的方式来请求和接收网络资源,HTTP催生了整个网络生态系统。它为互联网的建设铺设了轨道。

MCP在AI领域被赋予了类似的潜力。正如语言服务器协议(LSP)标准化了编程语言在开发工具中的集成方式,MCP试图标准化上下文和工具在AI应用生态系统中的整合方式。通过标准化上下文管理与通信,MCP有望:

  • 解锁有状态且强大的AI:推动AI应用超越简单的问答,发展为能够持久、上下文感知、有效利用外部数据和工具的助手与应用。

  • 促进互操作性:为不同AI模型、平台和工具之间的上下文与能力通信创造共同基础,增强切换LLM提供商的灵活性。

  • 加速开发进程:为开发者提供标准化的构建模块和越来越多的预制集成,而不必一遍遍发明定制解决方案。

正如HTTP让信息在互联网上得以普及,MCP有潜力通过更可持续的架构,推动复杂、集成化AI系统的普及与发展。

核心区别:起源与聚焦点

尽管潜在影响相似,MCP与HTTP之间存在明显差异:

  • 起源与目的:HTTP起源于链接与检索静态超文本文档的需求;而MCP源于现代AI复杂需求,专注于让LLM应用无缝整合外部数据源与工具,获取所需上下文信息。

  • 信息类型与交互模式:HTTP主要传输定义明确的资源(如HTML、JSON、图片),采用无状态的请求-响应模式;而MCP管理动态、演变的上下文信息,包括数据资源、可执行工具及工作流提示,并通过JSON-RPC 2.0建立有状态的双向连接。

  • 架构设计:HTTP使用主要用于资源检索的客户端-服务器模型;而MCP采用特定的主机(LLM应用)、客户端(主机内连接器)和服务器(提供上下文与工具)架构。

  • 发展路径:HTTP通过学术界及IETF等机构发展而来;而MCP由Anthropic发起并开源,并正以开放标准的形式由多个组织协作开发,灵感部分来自LSP等协议。

另一种类比:图书馆

还可以用图书馆来打比方:

HTTP就像使用老式气动传送管系统:

  • 用户填写一张请求单,注明所需的特定书籍或文件(类似URL)。

  • 把请求单放入传送管(发起HTTP请求)。

  • 图书馆管理员在某处找到并仅将请求的物品送回(HTTP响应)。

  • 若需要另一本书或其他服务,则必须再次填写并提交新请求。

而MCP则像通过现代标准化帮助台系统与图书馆管理员互动:

  • 用户带着研究目标来到帮助台(AI应用或"主机")。

  • 管理员通过标准化的计算机接口(MCP)访问所有图书馆资源与工具。

  • 通过这一系统,他们可以:

    • 搜索主目录、专业数据库与数字档案(访问资源/上下文);

    • 操作打印机、扫描仪、缩微胶片阅读器,甚至请求馆际互借(使用工具);

    • 访问在线期刊和外部学术门户(连接不同服务器);

    • 记录研究主题,基于持续的需求推荐相关材料(维护上下文);

    • 引导完成整个研究过程(提示/工作流)。

关键在于,标准化的系统(MCP)让管理员(AI主机)可以无缝协调多种信息资源和工具,帮助用户完成整体目标,而不仅仅是单次信息检索。

为什么MCP对开发者至关重要?

向上下文感知型AI转变,直接影响着开发者能够构建的内容。拥抱MCP意味着:

  • 更丰富的用户体验:构建能够使用外部工具和数据执行复杂任务的AI代理,打造真正互动的体验。

  • 提升效率与灵活性:接入预构建的集成,避免重复造轮子,且更容易切换LLM提供商。

  • 安全性最佳实践:采用最佳安全实践访问数据,确保MCP规范强调的数据安全与用户同意原则得到落实。

  • 开启新型应用范式:实现生成式AI与实时数据、外部系统无缝融合的新型应用。

在Google Cloud上借助MCP构建未来

随着这些新协议和模式的出现,拥有一个强大灵活的平台变得尤为重要。Google Cloud为构建和部署下一代上下文感知AI应用提供了所需的工具与基础设施:

  • 智能模型与平台:Vertex AI是Google Cloud的端到端AI平台,不仅支持训练、微调与部署强大的基础模型,还提供Vertex AI Agents等工具,具备理解上下文、语言细节与编排复杂任务的能力------这些能力对于利用MCP理念至关重要。同时,Vertex AI提供Gemini、Imagen、Veo2和Lyria等一方基础模型,以及如Claude、Llama、Gemma等丰富的第三方与开源模型库。

  • 可扩展、有状态部署:在服务器端管理上下文或作为MCP中介,需要能够高效处理状态和扩展的基础设施。Google Kubernetes Engine(GKE)支持StatefulSets,非常适合需要持久身份和存储的负载,如用户会话与上下文数据库管理。

  • 无缝数据与工具整合:MCP依赖于将模型连接到外部系统。Google Cloud提供了全面的数据库(如Cloud SQL、Spanner、Firestore)、消息服务(如Pub/Sub)及API管理工具,使整合这些关键组件变得轻松高效。

未来展望

MCP是否会成为新的HTTP?或许不能以字面意义理解为直接取代,但从潜在影响层面来看,二者的相似之处令人印象深刻。

AI领域对标准化上下文管理的需求已经非常明显。MCP作为一种通用、开放标准,有望取代当前碎片化的集成方式。无论未来是MCP本身,还是由一系列相关协议组成的体系,这一基础通信层对于突破当前AI的局限性至关重要。对于希望打造真正互动、集成且智能的下一代应用程序的开发者而言,理解并为这一变革做好准备,将成为不可或缺的一步。

相关推荐
一点.点3 分钟前
自动驾驶(ADAS)领域常用数据集介绍
人工智能·深度学习·机器学习·自动驾驶
智驱力人工智能6 分钟前
夏季道路安全的AI革命:节省人力、提升效率
人工智能·安全·边缘计算·视觉算法·视觉分析·智能巡航·人工智能云计算
晓数2 小时前
“平价”微智码初尝试
人工智能·jetbrains
0x2114 小时前
[论文阅读]REPLUG: Retrieval-Augmented Black-Box Language Models
论文阅读·人工智能·语言模型
JOYCE_Leo165 小时前
一文详解卷积神经网络中的卷积层和池化层原理 !!
人工智能·深度学习·cnn·卷积神经网络
~央千澈~6 小时前
对鸿蒙 Next 系统“成熟论”的深度剖析-优雅草卓伊凡
人工智能
Donvink6 小时前
【视频生成模型】通义万相Wan2.1模型本地部署和LoRA微调
人工智能·深度学习·aigc·音视频
訾博ZiBo6 小时前
AI日报 - 2025年04月29日
人工智能