凌晨 2 点,再次 Open!奥特曼宣布:OpenAI 正式支持对手 MCP 协议

【新智元导读】OpenAI 昨夜又放大招,Agents SDK 接入行业标准 MCP,下一步加持 ChatGPT 桌面版,要彻底颠覆每个人 AI 工作流。

自从昨天 OpenAI 将 GPT-4o 的原生图像生成同步开放给免费用户后,今天他们又 Open 了一把。

就在刚刚,OpenAI 对其 Agents SDK 进行了重大更新,支持了对手 Anthropic 推出的 MCP 服务协议。

凌晨 2 点,奥特曼便迫不及待地公布了这个消息。

「大家都挺喜欢 MCP 的,我们也很兴奋能在我们的产品中支持它,」Altman 说。

「今天就可以在 Agents SDK 里使用,ChatGPT 桌面应用和 Responses API 也很快支持!」

OpenAI 负责 API 的研究员 Steven Heidel 还在 X 上贴出了一张现在最火的吉卜力风格图片,来解释 MCP 的用处。

图片展示了一个基于 MCP 协议的分布式系统架构。

左边有一个主机运行 MCP 客户端(例如 ChatGPT 等应用),通过 MCP 协议与三个不同的 MCP 服务器(A、B、C)通信。

MCP 服务器 A 和 B 分别连接到本地数据源,处理本地数据,而 MCP 服务 C 通过 Web API 与互联网上的远程服务 C 交互,获取外部数据。

表明了 MCP 客户端可以根据需求从不同的服务器获取数据或服务。

MCP 持续火爆

MCP 允许 AI 模型从业务工具、软件、数据库以及应用开发环境等来源中获取数据完成任务。

可以使开发者能够在数据源和 AI 应用(如聊天机器人)之间建立双向连接。

自从去年 11 月 Anthropic 把 MCP 服务协议开源后,几个月来,很多像 Block、Apollo、Replit 这样的公司都在自己的平台上支持了此协议。

到了今年 2 月,MCP 生态进一步爆炸增长,已有超过 1000 个由社区构建的 MCP 服务器可供使用。

而且这种网络效应会使 MCP 越来越有吸引力:通过 MCP 可用的工具越多,该标准的实用性就越大。

「很高兴看到 MCP 的热爱传递到了 OpenAI------欢迎!」Anthropic 的首席产品官 Mike Krieger 在 X 上发帖说。

「MCP 已经成了一个蓬勃发展的开放标准,已经有几千个集成应用,而且还在增加。只有当 LLM 能够连接你现有的数据和日常使用的软件时,它们才能发挥最大的作用。」

前段时间,霸榜开源第一的 00 后博士生 0 天复刻 Manus 项目 OWL 爆火。今天,CAMEL AI 团队创始人李国豪表示:

看到 OpenAI 加入 MCP 生态是非常激动的,有想过会有这一天,但没有想到会这么快。

MCP 推出已有一段时间,如今它逐步成为标准,主要是因为它提供了极大的便利性,同时又是一个开放中立的协议。

MCP 的意义远远超过了一个简单的协议本身,而在于推动标准化的进程。实际上,这个协议由谁提出并不重要。

在标准缺失的情况下,各个团队都在独立开发自己的工具,如 LangChain、LlamaIndex 等,导致不同框架的 Agent 难以互通,不同框架的工具也难以兼容。

而有了 MCP,这个问题就变得简单了。它的价值在于降低对特定框架的依赖,让开发者只需遵循统一标准,就能自由使用各种工具。

官方 SDK 文档

随着 OpenAI 在 Agents SDK 中加入对 MCP 的支持,开发者现在可以轻松地利用各种 MCP 服务器,为自己的 AI 智能体提供丰富的工具能力。

MCP 服务器

目前,MCP 规范根据传输机制的不同定义了两种服务器类型:

  1. **stdio 服务器:**作为应用程序的子进程运行,可以理解为「本地」运行的服务器

  2. **HTTP over SSE 服务器:**远程运行的服务器,可以通过 URL 与之连接

开发者可以使用 MCPServerStdio 和 MCPServerSse 这两个类来连接这些服务器。

下面是一个使用官方 MCP 文件系统服务器的示例。

如何使用

开发者可以将 MCP 服务器集成到 AI 智能体中。

当 AI 智能体每次执行时,Agents SDK 会自动在 MCP 服务器上调用 list_tools() 函数。这一过程使 LLM 能够识别并获取 MCP 服务器提供的各种工具。

当 LLM 需要调用来自 MCP 服务器的某个工具时,SDK 会相应地在该服务器上执行 call_tool() 函数。

缓存机制

每次 AI 智能体运行时,系统都会调用 MCP 服务器的 list_tools() 方法。这一过程可能会产生明显的性能开销,尤其是在使用远程服务器的情况下。

为了优化性能,开发者可以通过在 MCPServerStdio 和 MCPServerSse 构造函数中设置参数 cache_tools_list=True 来启用工具列表自动缓存功能。请注意:只有确信工具列表不会发生变化时,才应启用此功能。

如需手动清除缓存,可以调用服务器对象的 invalidate_tools_cache() 方法。

链路追踪

系统内置的链路追踪功能能够自动捕获所有 MCP 相关操作,主要包括:

  1. 向 MCP 服务器发起的工具列表获取请求

  2. 函数调用过程中的所有 MCP 相关信息

MCP 一夜成为行业标准

MCP 这一概念,还是 Anthropic 在去年 11 月首次提出,全称为「模型上下文协议」,能够实现一次构建,让 AI 深度集成。

MCP 是一个开放协议,它标准化了应用程序向 LLM 提供上下文的方式。你可以把 MCP 比作 AI 应用的 USB-C 接口------就像 USB-C 为设备连接各种外设和配件提供了标准化接口一样,MCP 为 AI 模型连接不同的数据源和工具提供了标准化方法。

它的本质,是为了提供一个「通用接口」,好比 AI 世界「万能插头」。

也就是所说,不同 AI 模型 / 应用能够轻松连接到外部资源。这种标准化可以降低开发者的集成成本,同时提升了 AI 上下文感知力。

Agents SDK 是前段时间,OpenAI 为开发者准备的「工具箱」,用来打造自己干活的 AI 智能体,比如写邮件、整理数据。

现在这两者一拍即合,意味着什么?

OpenAI 员工用 ChatGPT 绘制吉卜力风格跟踪仪表板

开发者可用 Agents SDK,直接通过 MCP 调取各种外部数据、工具,让 AI 能够变得更聪明、更实用。

而这仅仅是个开始,奥特曼透露的未来两个令人期待的计划,将进一步加速 AI 工作流。

如果 ChatGPT 客户端也能用上 MCP,就会化身为超级私人助理,去年 11 月每个人从 Claude 演示中能够获得关键一瞥。

对于开发者来说,MCP 加入 OpenAI API,未来可以用更少代码,干更多的事儿。

下一代 AI 工作流,说不定就从这儿起飞了。

参考资料:

techcrunch.com/2025/03/26/...

x.com/sama/status...

huggingface.co/blog/Ksenia...

相关推荐
花果山-马大帅19 分钟前
我的机器学习学习之路
人工智能·python·算法·机器学习·scikit-learn
尺度商业1 小时前
郭英成以茶会友对话李开复,探讨AI科技赋能
人工智能·科技
国科安芯1 小时前
汽车电气架构中的电源架构
人工智能·嵌入式硬件·fpga开发·架构·汽车
郝YH是人间理想1 小时前
OpenCV基础——梯度计算、边缘检测、图像金字塔
开发语言·人工智能·python·opencv·计算机视觉
生信碱移1 小时前
细胞内与细胞间网络整合分析!神经网络+细胞通讯,这个单细胞分析工具一箭双雕了(scTenifoldXct)
人工智能·经验分享·深度学习·神经网络·机器学习·数据分析·数据可视化
白雪讲堂2 小时前
GEO(生成引擎优化)实施策略全解析:从用户意图到效果追踪
大数据·人工智能·搜索引擎·ai·deepseek
songx_992 小时前
计算机视觉初步(环境搭建)
人工智能·计算机视觉
yolo大师兄2 小时前
基于YOLOv8深度学习的PCB缺陷检测识别系统【python源码+GUI界面+数据集+训练代码+登录界面】
人工智能·python·深度学习·yolo·计算机视觉
草梅友仁3 小时前
GPT-4o 多模态图像生成功能解析 | 2025 年第 13 周草梅周报
aigc·openai·ai编程