哈喽!大家好呀!我是一直在研究和使用AI工具的小明!
这是一篇超过万字的文章,这是一篇我创作AI领域相关文章以来,写过最长的文章,这中间我也用了AI去帮助我了解一些技术类的名词,去辅助我进行写作。
如果你也对文中的部分名词看不太的懂的话,你可以去问下AI,让AI用最通俗易懂的语言来给你解释一遍,会更好地理解
为了方便大家理解,这里也放个文章的主要内容:
- MCP概述与技术定义
- MCP的架构与工作原理
- MCP在AI多模型协作中的作用
- MCP对模型部署
- 上下文缓存与持久性的影响
- MCP与当下AI架构的关系(涉及AgentiAI中的MCP作用、多模态AI中的MCP集成、LLM应用框架与MCP)
MCP概述与技术定义
模型上下文协议(Model Context Protocol,MCP)是一种由 Anthropic 于 2024 年底提出的开放标准协议,旨在让AI模型能够方便、安全地连接到各种外部数据源和工具。简单来说,MCP为AI模型提供了一个类似"USB-C接口"的通用连接方式,将原本分散的集成方式统一起。
通过MCP,开发者不再需要为每个数据源定制单独的插件或API对接,取而代之的是让AI助手(如聊天机器人、编程助手等)使用单一协议就可以获取所需的上下文数据 。这一标准的核心目标是在各类AI应用与外部系统之间建立通用的"上下文桥梁" 。MCP能够连接的外部系统包括内容存储库 (如文档库、产品库)、业务工具 (如Slack、GitHub)、开发环境以及其他软件或数据库等,即"数据真正所在之处" 。
MCP的核心目标能够概括为以下三点:
通用访问接口
提供一个单一的开放协议,使AI助手(MCP客户端)能够从任意数据库里查询或检索上下文信息 。这意味着无论你的数据是位于文件系统、数据库还是第三方API,AI大模型都可以通过统一方式访问。
安全标准的连接:用标准协议取代临时的API连接或自定义封装,实现身份认证、权限控制和数据格式标准化 。MCP内置了对认证和使用策略的支持,确保AI大模型只能访问被授权的数据,并以规范格式交换信息。
可持续的生态
推动可重用连接器 (即MCP服务器)的生态体系,使开发者 "开发一次,通用于多个LLM模型和客户端" ,这里可以参考在开发鸿蒙系统应用的时候"开发一次,多端部署"的方式,避免了为不同AI模型重复编写相同的数据接入逻辑,大幅减少了集成维护工作。
通过上述目标,MCP试图解决当前AI模型面临的"信息孤岛"问题和 集成碎片化问题。在MCP出现之前,将AI模型接入多个数据源需要开发者编写繁杂的插件或API调用代码,每新增一个数据源都要做新的对接,这被形象地称为"M×N集成难题"。如果你有M个AI应用和N个数据源的话,可能需要处理M×N种不同的集成关系 。
MCP的出现,能够将其简化为"M+N"的问题
工具提供者只需为每种数据源实现1个MCP服务器,应用开发者只需为每个AI应用实现1个MCP客户端,双方遵循统一协议即可协同。这一转变类似于USB标准之于外设连接------从过去各种不兼容接口,走向如今"一接口通用"的局面。
总之,MCP的技术定位是"AI上下文的通用接口" 。它让大型语言模型(LLM)可以突破封闭的对话框限制,直接与用户的数字环境产生有意义的交互。借助MCP,LLM能够访问实时的数据和业务上下文,生成更相关、更及时的回答,并根据需要调用工具执行操作。这个协议被认为将显著提升AI助手的实用性和智能水平,是连接AI能力与现实数据环境的重要基石 。
MCP的架构与工作原理
MCP采用经典的客户端-服务器架构 ,为AI应用与外部系统建立双向连接。它包括:MCP主机(Host) 、MCP客户端(Client)和MCP服务器(Server) 。下图展示了MCP的架构示意:
上图释义:MCP客户端-服务器架构示意。左侧Host(如运行LLM的应用)通过MCP客户端连接右侧的MCP服务器。MCP服务器对接外部系统(如天气API、邮件服务、数据库),并向客户端提供标准化的工具(Tools)、资源(Resources)和提示词模板(Prompts)接口。
MCP主机(Host) :指运行LLM应用的宿主程序,如Claude Desktop应用、本地IDE插件或者自定义AI助手等 。主机是用户直接交互的对象,它需要从各种数据源获取信息为模型提供上下文。
MCP客户端(Client) :运行在主机内部,与每个MCP服务器保持一对一连接的组件。一个Host可以启动多个Client来连接不同的Server。客户端负责协议握手、能力发现和具体通信,将服务器提供的数据或功能转交给LLM使用。
MCP服务器(Server) :独立运行的轻量程序 ,通过标准化协议对外提供某种特定能力或数据。每个服务器通常封装一种数据源或工具(例如一个连接文件系统的服务器、调用GitHub API的服务器、数据库服务器等),对外暴露统一格式的接口供客户端调用。
在MCP架构中,服务器向客户端公布三类关键要素:
Tools(工具) :由模型触发调用的函数接口,相当于LLM(大语言模型)可用的动作或操作。工具通常会执行某些计算或副作用,如调用天气API获取信息、创建新文件、发送指令等。LLM(大语言模型)可以通过"MCP函数调用"的形式来使用这些工具(类似于OpenAI函数调用),完成需要的操作。Tools是"模型控制"的接口,意味着模型在推理过程中可以主动决定调用哪个工具。
Resources(资源) :由服务器提供的可读数据内容,相当于静态或查询型的信息源。例如文件内容、数据库记录、API查询结果等都可以作为Resource提供给模型。Resources通常不产生副作用,只是提供上下文数据,类似REST API中的GET操作。资源的使用由应用或用户控制,即需要客户端确定哪些资源提供给LLM大语言模型阅读。
Prompts(提示词模板) :预先定义的提示词或模版,用于帮助模型更好地利用特定的工具或资源。例如,一个Prompt模板可以指导模型如何调用某个API的工具或如何格式化对某类资源的总结。提示模板通常由用户在调用前选择或由客户端在适当时机插入,以优化模型与工具/资源交互的效果。
在工作流程方面,MCP客户端和服务器之间会经历以下步骤 :
初始化握手:当主机应用启动时,会根据需要创建若干MCP客户端实例,每个客户端尝试连接相应的MCP服务器。双方首先通过握手交换协议版本、身份认证等信息,确保兼容且安全的连接。
能力发现 :客户端连接后,会请求服务器列出其提供的全部Tools、Resources和Prompts清单及描述信息。服务器回应这一清单,使客户端了解可用的功能和数据。通过这种自描述 机制,模型或应用可以自动获知有哪些工具和资源可以使用,以及如何使用它们。这意味着开发者无需手工编码每个调用细节,模型在一定程度上"知道"工具的接口和用途(因为服务器提供了说明文档)。
上下文提供:在应用执行推理前,客户端可以根据需要将某些Resources或Prompts提供给模型作为上下文。比如Claude Desktop要求用户手动选择哪些资源(文件内容等)供模型阅读 而其他客户端可能使用策略自动选取相关资源。选定的资源数据会被加载进模型的上下文窗口,使模型在回答时参考。Prompts模板也会在此阶段应用,为模型生成更准确的请求或操作格式。
调用执行:当LLM在推理过程中决定使用某个Tool(例如用户问了"这个项目仓库有哪些未解决Issue?",模型判断需调用GitHub相关Tool),客户端会根据模型的意图,向对应的MCP服务器发出工具调用请求。请求包含所调用Tool的标识和参数。
结果返回:MCP服务器收到调用请求后,执行实际的逻辑(如调用外部API、查询数据库等)并将结果封装后返回给客户端。客户端再将该结果提供给模型使用。模型可能据此生成回答,或继续进一步推理。如果模型需要多个步骤,它可以多次发起Tool调用,MCP客户端和服务器会依次处理每个请求,直到任务完成。
通过以上工作机制,MCP实现了LLM应用与外部环境的闭环交互 :模型可以获取所需的上下文数据 ,并能在安全受控的前提下执行操作,而开发者只需遵循标准接口而不必针对每种数据源各写一套逻辑。
这极大地提升了AI系统构建的简洁性和可靠性。正如Anthropic所述,MCP把过去碎片化的集成方式变成了"单一协议"的整合方式,让AI系统以更简单、更可靠的方式访问所需数据 。
与此同时,MCP协议设计中还引入了一些实用概念以增强灵活性:
Roots(根路径) :客户端可在连接时向服务器声明一个或多个"根URI",用于指示服务器应关注的资源范围 。例如,可将根设置为file:///home/user/projects/myapp
,表示只需让服务器关注特定项目目录下的文件。Roots提供了作用域控制和组织方便性,使服务器明确哪个子集的数据属于当前工作空间。这是一种上下文范围限定,有助于提高检索效率并加强安全(避免LLM越权访问无关数据)。
传输层:MCP通信可基于多种底层传输,如标准输入输出(std i/o)、HTTP或Server-Sent Events(SSE)等。这允许MCP在本地进程内、跨进程甚至跨网络灵活部署。例如Claude Desktop本地MCP服务器通过标准IO管道通信,而远程MCP服务器可采用HTTP/SSE等进行实时数据交换。
状态管理 :尽管MCP本身是无状态的请求响应协议,但服务器可以维护内部状态以支持连续会话。例如,服务器可根据会话ID区分不同对话的内容,也可以实现缓存 以避免重复计算。MCP官方将这种能力称为"会话性(statefulness) ",允许模型在多次交互中保留上下文记忆。这一点我们在下文的"上下文持久性"部分详述。
MCP的架构设计注重标准化接口 和灵活扩展的平衡:通过统一的客户端-服务器协议让各种AI应用都能访问多样的资源,同时提供机制确保数据范围、权限、传输方式等可以根据需要配置。这为AI系统的扩展和复杂工作流构建打下了坚实基础。
MCP在AI多模型协作中的作用
MCP不仅方便单个AI模型访问数据,也为多模型协作 提供了共享上下文的机制。当我们谈及"多模型",可以指不同类型的模型 (例如文本生成模型、代码模型、视频生成模型)或不同实例的LLM (例如多个agent智能体)在协同完成任务。在这种场景下,关键挑战在于让各模型能够共享知识和上下文,避免各自为战。MCP的出现为此提供了有力支持:
跨模型的一致数据视图
由于MCP定义了标准化的上下文接口,不同模型或AI agent都可以通过同样的协议访问同一批数据源。例如,一个团队构建了多个AI助手:聊天助手使用某款LLM,代码助手使用另一款LLM。通过部署共享的MCP服务器(比如连接知识库、代码仓库等),两个助手就能够获取相同的上下文信息 ,如统一的公司知识库答案或最新代码变更记录。这意味着模型A获取的资料,模型B也能获取,从而消除信息不对称。
正如MCP的设计目标所述,它具备跨模型的互操作性 ,可以"无缝地在不同模型、工具和数据源间工作"。开发者只需配置一次数据连接,各种LLM客户端都能重复使用 。这对多模型系统来说相当于建立了公共知识底座。
共享的上下文缓存与记忆
:在多智能体系统中,各agent可能需要共享某些记忆或中间结果。借助MCP,开发者可以实现一个"记忆服务器"或利用某种持久化的数据源,让多个模型共享写入和读取。
比如Agent 1处理完部分任务后,将结果通过MCP服务器写入到指定的资源(如一份笔记文件或数据库记录);Agent 2 随后可以从该资源读取内容继续后续任务,这实际上建立了一个 共享的上下文工作空间,所有参与的模型都能在其中读写信息,从而实现协同。有一篇文章将MCP称作"持续的、可上下文感知的工作空间",模型可以引用先前工作成果、访问已有文件,并将新输出直接写入环境中。这种持续上下文对于多步骤、多模型的协作至关重要。
模型替换与组合的便利
MCP降低了模型之间的壁垒,使不同能力的模型可以被灵活地组合使用。例如,一个复杂任务可能需要图像识别模型与LLM合作:图像模型先分析图片得到文字说明,LLM再根据说明进行推理。通过MCP,我们可以为图像模型创建一个MCP服务器,LLM通过调用该服务器的工具来获取图像描述;反过来,LLM的结果也可通过另一个MCP接口传递给图像处理模块。由于采用统一协议,插入或替换模型变得容易。
例如将某一步骤原本用GPT-4o模型,后来替换为Claude或本地开源模型,只要它们支持MCP客户端,整个协作流程和上下文共享机制不需要改变。这种松耦合特性让多模型编排(orchestration)更为顺畅,开发者可专注于设计工作流,而不用为每对模型单独开发粘合代码。
与Agent通信协议的配合
需要注意,MCP本身并不是让模型之间直接通信的协议,它更关注模型对共享资源/工具的访问 。在多智能体协作中,如果需要模型间直接对话(交换消息),可能需要结合其他协议或框架(例如有社区提出的Agent通信协议ACP,用于agent之间直接消息传递。MCP可作为这些智能体获取环境信息和执行操作的共同基础。在一个复杂多agent系统中,可以让各agent通过MCP访问共享的数据和工具,同时利用专门的agent通信机制协调决策。MCP确保每个agent都"看到"相同的世界状态(来自同一数据源集合),这极大提高了协作的一致性和效率。
简而言之,MCP通过统一上下文接口 为多个AI模型提供了共同的"语言环境" 。它不像某些框架那样直接处理agent通信,但通过共享的数据/工具层,多个模型之间达到了间接的信息共享 。这对于构建模块化、多智能体的AI系统是非常有益的:团队可以独立开发各模块模型,但依赖MCP来共享知识、避免重复集成,让整体协作更加流畅。而随着MCP生态中可用的"数据连接器"越来越丰富,多模型系统可以利用的共同资源也会随之增加,为更复杂的协同智能奠定基础。
MCP对大模型部署上下文缓存与持久性的影响
MCP的引入对AI模型的部署方式 和上下文管理产生了深远影响:
模型部署的灵活性与解耦:
传统上,将LLM集成到具体应用时,开发者常需要将大量上下文数据直接塞入模型的提示词(prompt)中,或在应用侧硬编码各种数据抓取逻辑。这使模型部署绑定了具体的数据环境,更换模型或迁移环境时需要大量改动。MCP改变了这一点------它在模型和数据之间增加了一层抽象,使两者解耦 。
开发者可以先搭建MCP服务器来对接数据源,模型只需运行支持MCP的客户端即可获取数据,而不关心数据源的具体实现。这样,更换底层模型(例如从OpenAI的GPT换成Anthropic的Claude,或换成本地模型)变得相对容易:因为数据接口不变,新模型只要支持同样的MCP客户端逻辑即可。
Anthropic官方指出,MCP提供了"在不同LLM供应商之间切换的灵活性"。这对于企业来说意味着避免被单一厂商锁定,可以根据任务需要选择最合适的模型,同时沿用原有的数据接入方案。另一方面,模型升级部署也更简单:当LLM更新版本或能力增强时,只要协议兼容,原有MCP集成依然有效,减少了升级成本。
上下文缓存与重用
MCP让上下文数据的提供从模型侧转移到了外部服务器,这为上下文缓存创造了条件。比如,一个MCP服务器在检索某数据库记录时,可以缓存查询结果;当同一记录被频繁访问时,服务器可以直接返回缓存而无需重复查询,从而减少延迟和外部调用次数,这对高并发或高吞吐的AI应用尤为重要。
有研究讨论了MCP在高吞吐场景下如何处理上下文管理挑战,包括利用缓存机制、批量请求等来提高效率。另外,对于较大的知识库或数据集,MCP服务器可以预先加载并保持打开文件的句柄或建立持续的数据库连接,使后续请求开销降低。这些都是在协议层外 通过服务器实现的优化,却直接改善了模型获取上下文的性能。更重要的是,MCP推动了一种会话上下文持久化的理念。
以往,LLM的上下文窗口有限,每次交互的记忆由Prompt长度限制,超出后需靠人工总结或其他措施保持连贯。而通过MCP,模型可以将一些上下文转移到外部存储,从而实现跨对话甚至跨会话的持久记忆。例如,一个MCP服务器可以专门用于保存对话日志、用户偏好等信息,每次对话开始时模型通过该服务器读取历史摘要,结束时再写入新内容。
这种方式突破了模型自身上下文长度的限制,把长久记忆委托给外部系统。这意味着用户在一个环境中积累的上下文,模型带着这些记忆切换到另一环境时仍可用,从而提供连续一致的体验。
举个例子:MCP驱动的个人AI助理 可以记住用户偏好和历史。在第一次聊天中用户告诉AI自己对某主题的看法,这个个人AI助理通过MCP将此记录保存。下次无论是在邮件写作助手还是日程管理助手中(可能是由不同的大语言模型实现),都可以通过同一MCP接口取回用户之前提供的信息,从而省去重复询问。由此可见,MCP赋予AI系统一种持续上下文意识,让交互更加自然。
安全可控的上下文管理
上下文持久化和共享虽然有利于智能增强,但也带来安全风险,如敏感数据泄露 或模型误用权限 。MCP在设计中考虑了这点,通过标准机制提供权限范围控制 和审计。
例如,MCP服务器可以设置访问范围 (Scopes)来限定模型可以读写的数据种类和操作级别 。开发者可以让AI助手只能"只读"某些数据库,而不能写入;或者只能访问开发环境的测试库,不能碰生产库。这些作用域配置为安全使用AI提供了保障,降低了LLM意外修改重要数据的风险。
另外,所有通过MCP的访问都可以在服务器端集中记录日志 ,包括何时哪个模型访问了什么数据、调用了什么工具 。过去如果AI直接通过不同API或插件调用外部系统,审计分散且困难;现在有了统一协议,企业能够更方便地监控和审核 AI的行为 。尤其在金融、医疗等受监管行业,这种统一日志和策略执行非常关键。因此,MCP在实现上下文灵活供给的同时,也提供了企业级的治理与控制手段,让AI部署既高效又合规。
从部署视角看,MCP推动的是一种"模型即插即用"的生态:模型可以像设备一样被快速接入或更换,而上下文数据通过标准接口源源不断供应。这降低了应用对特定模型或数据管道的耦合度,使AI系统具有更长的生命周期和扩展性。
在上下文管理上,MCP把一部分"记忆"工作交给外部系统完成,既提升模型响应的时效性和针对性 (因为随取随用最新数据),又提供了超越单次对话的记忆 能力。对于开发者和用户而言,这意味着AI助手能够更懂你、更持久地陪伴你,同时开发和维护成本更低、风险更可控。
MCP与当下AI架构的关系
MCP的出现与当今诸多前沿AI架构趋势密切相关,包括Agent式AI (自主智能体)、多模态模型 以及LLM应用框架等。MCP既是这些趋势发展的产物,又在反过来促进它们更快落地。我将在本这个章节内分别讨论MCP在这些领域的作用。
Agent式AI中的MCP作用
"Agent式AI"指让AI作为自主智能体完成复杂任务,通常需要结合规划、多步推理和工具使用等能力。典型的agent型应用如自动代码助手、任务型对话代理(AutoGPT 类)等。这类AI往往需要与环境交互 (读写文件、调用API)并自主决策 。在没有MCP之前,agent框架(如LangChain等)需要人为地为LLM封装各种工具接口,或者利用有限的插件机制,让模型具备操作能力。而MCP为Agent式AI提供了一个通用的工具调用层,大幅简化了开发难度。
首先 ,MCP提供的Tools接口 本质上就是对功能调用(function calling)的标准化支持。LLM通过输出特定格式即可触发Tool,无需开发者逐一定制处理逻辑。这使得构建agent时,可以很容易地赋予模型动作能力 。Anthropic报告的一个案例是代码编写场景:借助MCP,像Zed、Replit、Sourcegraph等开发工具平台让AI代理能够检索代码上下文,并多次迭代完善代码。Block公司的CTO也评论说:"像MCP这样的开放技术是连接AI与真实应用的桥梁......我们很高兴用它来构建自主智能系统,让人们摆脱机械负担,专注于创造力" 。这说明业界认为MCP是实现Agentic AI的重要拼图,代理通过MCP获取所需信息并采取行动,完成用户交代的复杂任务。
其次 ,MCP引入的作用域控制 和两段式资源提供 (用户先确认资源)为agent的安全运行提供了保障。过去人们担心给LLM太大权限会"闯祸",例如胡乱改文件或调用危险操作。但MCP可以让agent在严格权限下工作:只能访问特定文件夹,只能调用有限集合的API等。这样降低了Agent执行复杂任务时的风险 ,使我们更放心地让其尝试自主行动。有专家指出,这为探索更高级的"agentic"行为打开了大门,因为有了安全网,才能放心让AI尝试自动完成任务 ,所以MCP被视为让自主智能体变得可控可用的关键。
最后 ,MCP让Agent工具生态 更加繁荣和标准化。Agent式AI成功与否,很大程度取决于可用工具的丰富度和质量。有了MCP,不同开发者可以贡献各类MCP服务器(工具集),这些服务器自带文档和标准接口 ,任意agent都能使用。这类似于应用商店的模式:agent可以方便地"安装"新能力而不需要内置支持。例如Microsoft的Copilot Studio已集成MCP,使得在其中构建的企业Agent可以直接搜索和添加各种MCP服务器提供的动作。这免除了开发者手动编码集成,极大缩短了构建agent的时间。随着越来越多第三方发布MCP兼容的工具(如先前提到的各类API厂商可能提供官方MCP连接器,Agent将拥有不断扩展的技能库 。因此,可以说MCP为Agent式AI打造了一个统一且可扩充的工具层,这将加速复杂自主AI系统的开发,并提高可靠性和安全性。
多模态AI中的MCP集成
多模态AI是指能够处理文本、图像、音频等多种数据形式的模型或系统。MCP虽然最初围绕LLM文本应用设计,但其通用的数据接口理念同样适用于多模态场景。通过MCP,一个AI系统可以统一地访问和操作不同模态的数据源,实现跨模态的协同。
MCP的Resources不仅局限于文本或结构化数据,它也支持二进制数据的传输 。 例如,一个MCP服务器可以提供截图图像或音频文件作为Resource,LLM获取后再交由相应的模型处理。反之,MCP的Tools可以封装对多模态模型的调用,比如"生成图像"或"语音合成"等操作。社区已经出现了这方面的探索,例如有人构建了MCPollinations多模态服务器,使AI助手能够通过Pollinations API来生成图像、文本和音频。
这一服务器将图像/音频生成功能视为工具,无需额外认证就能被LLM调用。这表明MCP完全可以作为多模态AI能力的连接桥梁:文本模型通过MCP调用图像模型,实现"以文生图";或反过来,图像识别模型通过MCP接口把结果提供给LLM,实现"以图生文"。
对于复杂的多模态任务,MCP也支持多步骤的模态转换。 举例来说,一个AI助手需要看一张设计图并生成说明文档。传统上,这可能需要定制一个工作流:先用视觉模型处理图像,再把输出喂给文本模型。
而使用MCP,可以把这一流程解耦成:助手先调用"MCP视觉服务器"的识别Tool获取图像内容描述,然后调用"MCP文档服务器"的写入Tool将结果填入文档模板。这些调用都通过统一协议完成,助手(LLM)可以在单一对话中 orchestrate 不同模态的模型,各环节上下文通过MCP顺畅衔接。如此,多模态交互变得像调用多个API一样简单,而不是每新增一种模态就要开发全新的集成方案。
虽然大型模型正朝多模态统一的方向发展(如OpenAI GPT-4 Vision、Meta ImageBind等),但即使是这些模型,也受限于训练数据和内置能力。 而MCP的出现可以补足它们的短板:当多模态LLM无法直接完成某任务时,可以通过MCP调用一个专用工具或数据源。
比如GPT-4虽能看图,但可能无法访问实时摄像头;借助MCP,可以有一个Camera服务器供其调用,从而获取动态图像流的描述。这种模式下,MCP充当了外部多模态插件的角色,为任何AI模型添砖加瓦。反过来,对于没有多模态能力的模型,MCP更是唯一途径让其利用其他模态:通过协议调度其他专用模型完成子任务,然后综合结果。
总而言之,MCP通过统一接口把各类模态的数据源和模型连接起来,使跨模态协作变得自然可行。 这种架构赋予AI系统高度的模态灵活性------可以根据需要组合视觉、听觉、文本等各种能力,而且后续引入新模态也只是添加新的MCP服务器而非大改系统结构。对于追求多模态交互体验的应用来说,MCP提供了一个模块化、可扩展的实现路径,加速了多模态AI从实验走向实用。
LLM应用框架与MCP
在LLM热潮中,各种应用开发框架如LangChain、LlamaIndex、OpenAI的Agents SDK等纷纷涌现,旨在简化LLM驱动应用的搭建。这些框架通常提供对话管理 、工具调用 、知识检索 等功能。但在MCP出现之前,不同框架对接外部工具/数据的方式各异,缺乏统一标准。MCP的到来为LLM应用框架提供了一个通用的底层接口,能够显著提升框架的互操作性和能力。
OpenAI近期推出的Agents SDK即宣布支持MCP,实际上是OpenAI直接采纳了Anthropic提出的标准。OpenAI的CEO Sam Altman 在2025年3月表示,将在ChatGPT桌面应用、Agents SDK和Responses API中全面添加对MCP的支持 。他说"MCP很受欢迎,我们也很高兴在所有产品中添加支持" 。对于开发者,这是一大利好:使用OpenAI框架构建的应用,也可以无缝调用Anthropic主导的MCP生态中丰富的服务器。同样,如果Anthropic的Claude接入了某数据源,那么OpenAI的模型也能沿用这些接口。框架层面的融合意味着未来AI应用开发将更少碰到"此插件只支持某平台"的障碍,而是一个工具接口开发好,多种框架皆可用。
社区的其它框架也在探索MCP的集成。LangChain等原本已经提供了许多工具链封装,但可以预见会提供MCP兼容的Tool接口,让LangChain Agent可以把MCP服务器当作一种工具使用。事实上,有技术博客详细介绍了如何将MCP多服务器集成到LangChain工作流中,实现复杂的多步操作。
可以预计,MCP会成为LLM应用框架的底层能力,框架将主要负责高层的调度逻辑(如何根据LLM输出决定调用哪个MCP工具),而底层执行和数据获取由MCP处理。这种分工清晰且模块化,有助于框架开发者专注于对话管理和prompt优化,而把繁杂的外部集成交给标准协议解决。
除了工具调用外,MCP还影响了检索增强型生成(RAG)这类框架组件。RAG通常需要从向量数据库或知识库检索内容插入LLM上下文。借助MCP,我们可以把向量检索功能封装成一个MCP服务器(甚至向量数据库厂商直接提供MCP接口),LLM应用通过它来获取内容片段。这使得检索的接入也标准化了:不用为每种LLM写适配代码。更妙的是,不同LLM可以共享同一个检索服务器,从而检索结果一致,方便比较或组合模型输出。
最后,MCP推动形成了AI插件/连接器市场 的雏形,这也会反映到框架生态中。Anthropic提供了官方的开源MCP服务器仓库,涵盖Google Drive、Slack、GitHub、数据库等常用系统 。随着MCP普及,第三方公司可能直接发布"MCP插件"供用户下载使用。微软的Copilot Studio已经内置了"MCP连接器市场"的概念,让用户直接选现有MCP服务器来扩展Agent能力。未来我们或许会看到,LLM应用框架集成一个"插件商店"模块,里面都是各类MCP服务器,开发者挑选需要的,一键接入自己的agent或应用中。这将大大简化AI应用的集成开发,让开发者更多精力放在应用逻辑和用户体验上,而非苦恼于对接各种外部系统。
最后,MCP已经并将继续深刻影响各类LLM应用框架和开发范式。通过提供标准接口,它打通了不同框架和平台间的壁垒,催生出共享的工具生态;通过降低集成门槛,它加速了AI赋能传统软件的进程,让"万物皆可接入AI"成为可能。可以说,MCP正成为现代AI软件架构中的一项基础设施,为上层丰富多样的AI应用提供统一支撑。
MCP的未来充满机遇也伴随挑战。乐观地看,MCP有潜力成为AI时代的关键基础设施之一,就像互联网时代的HTTP和JSON一样普及。它让AI真正连接上世界的知识与工具,使智能无处不在。
然而,要走到那一步,技术社区和产业需要持续投入,更需要众多开发者去共同完善这一开放标准,确保它安全、高效、易用地服务于各种AI应用场景。
如果成功,我们将见证AI助手从"孤岛"走向"互联网"的飞跃,每个人的AI都将变成强大的超级助手,随时获取所需信息并采取行动。这正是MCP对人工智能发展的深远意义所在:赋予AI上下文连接的能力,打开更广阔的智能协作新局面。