作者:世如
全球 AI 开发者都在讨论热门词"MCP"正在成为新标准。
从 2024 年 11 月,Anthropic 公司首次提出 MCP(Model Context Protocol)协议,到 3 月 27 日 OpenAI 宣布对其 Agent SDK 进行重大更新,正式拥抱 MCP 协议,进一步推动了 MCP 协议成为 AI 应用领域的事实标准。
目前,一些令人兴奋的基于 MCP server 搭建的应用已经陆续出现,例如 Blender-MCP 开源项目,用户可通过 MCP 协议将自然语言指令转化为三维建模操作,项目开源一周即获得 5.4k stars,更加印证了 MCP 在专业工具自动化领域的可用性。
广大开发者期待可以更简单、更高效的通过 MCP 协议搭建生产级 AI Agent,当前社区 MCP Server 主要以 STDIO 本地模式部署为主,通过本地体验模型服务和工具,数据之间的交互,随着 AI 场景的丰富,数据访问不再仅限于本地,基于本地部署的 MCP Server 势必无法满足复杂的生产需求,云上托管 MCP 搭建 AI Agent 将成为趋势。函数计算 FC 目前已经支持开源 MCP Server 一键托管,欢迎体验。
为什么云上托管 MCP Server 是趋势?
-
吸引更多开发者参与 MCP 生态建设
Function Calling 要求开发者为每个 Function 编写一个 JSON Schema 格式的参数说明,Function 和 Function 的格式受到开发者自身业务需求而无法直接复用,也带来了工作量的剧增。而 MCP 协议成为事实标准后,任何人都可以直接使用开源或三方的 MCP Server,大量开发者踊跃贡献,避免了重复开发。MCP 协议开放了 Stdio 和 SSE 两种标准协议,不管是通过 Stdio 协议调用 remote APIs 还是 SSE 协议,都要求服务/数据供应商提供 API 访问,云上托管是最佳方式。
-
企业级 MCP Server 要求安全合规和弹性伸缩
MCP Server 将服务/数据对接给大模型,如果不限制大模型的数据权限范围和敏感数据过滤,将对企业产生安全合规风险,云上托管提供权限管控、操作审计、用户隐私保护等内置安全工具,大幅减少安全风险暴露面,合规成本低。同时 MCP Server 的爆火,对服务商是巨大的机会,服务商将面临着用户量和模型调用量的突增,云上托管如函数计算具备免运维、自动弹性、自动容灾的优势,确保服务体验的同时实现降本增效。
云上托管 MCP Server 核心痛点
-
传统托管效率低
从 MCP 架构的描述中可以看到,MCP Server 作为 AI 大模型和企业服务的中间层,通过购买传统云资源部署效率低下,其代码通常相对轻量,开发者需要快速部署,快速测试仅仅可能是一条 NPX 命令。 "MCP Servers: Lightweight programs that each expose specific capabilities through the standardized Model Context Protocol"。
-
业务规模不确定
作为原有 Function Calling 的替代者,工具调用请求规模具有显著的不确定性,传统云资源托管需要长期持有资源,资源供给无法实现按业务流量进行灵活的动态适配。
-
无法灵活快捷实现定制
MCP Server 作为 AI 和企业服务能力的中间层,其逻辑覆盖简单路由到复杂计算,随着业务场景的丰富会变得越发复杂,务必在选择云上托管的时候,也要考虑后续业务的开发和维护效率。 务必要求开发层面需要更灵活的定制能力,实现快速变更,快速上线,灵活的版本和流量管理。
-
数据访问网络配置复杂
传统 MCP Server 依赖于本地化部署实现数据安全,随着云端部署的普遍化,云端 MCP Server 不仅需要能够实时安全的访问企业私有数据,也需要适配复杂的业务环境,在 Internet 和 Intranet 网络之间进行互通,这就要求能够快速的互联网公共服务和企业云上 VPC 快速打通,提供安全灵活的执行环境。
函数计算成为云上托管 MCP Server 的最简方式
社区积极的推动 MCP 协议演进,推动 Steamable HTTP transport 技术代替原有 HTTP+SSE 的通信方式,原有的 MCP 传输方式就像是你和客服通话时必须一直保持在线(SSE 需要长连接),而新的方式更像是你随时可以发消息,然后等回复(普通 HTTP 请求,但可以流式传输)。这种形式与 Serverless 算力无状态模式更加契合,协议层演进将更有利于云上 Serverless 算力的价值放大,随着 AI 模型复杂度和数据规模持续增长,Serverless 与 MCP Server 的结合将成为趋势。
函数计算作为云上 Serverless 算力的典型代表,其凭借在开发效率,按需付费,极致弹性等产品能力直击云上 MCP Server 托管的核心痛点,为企业 MCP Server 提供高效,灵活,匹配业务规模的托管能力。
1. 成本效益最大化
按需付费,避免资源浪费:Serverless 按实际计算资源消耗计费,而非固定服务器租赁费用,尤其适合 AI 训练和推理任务中常见的波动性负载。
消除闲置成本:AI 模型训练通常需要突发性算力,Serverless 能自动分配资源,避免传统模式下预留资源导致的服务器空置问题。
2. 弹性扩展与资源优化
动态资源分配:将 MCP Server 托管在函数计算上,基于 Serverless 架构,可实时响应 AI 任务需求,自动扩展 CPU/GPU,确保算力高并发处理能力。
多模型协作支持:支持多个 AI 项目并行运行,资源按优先级动态调度,提升整体算力利用率。
3. 简化运维与加速开发
无服务器管理:开发者无需关注服务器配置、补丁更新或集群管理,专注算法优化和迭代 MCP Server 内部逻辑和工具丰富度。
开箱即用的工具链:函数计算提供了完善的工具链能力,基于开源 Serverless Devs 开源工具实现本地快速部署。
4. 更灵活的 MCP 协议适配
当前函数计算提供单实例多并发能力,扩展对存量 SSE 协议的适配,基于社区提供的 MCP Proxy 方案能够快速将存量本地 MCP Server 托管到云端,方便业务平台的测试开发。
提供基于WebSocket 的 MCP 协议适配,支持单实例单并发和单实例多并发能力支持,提升协议适配和场景适配;
体验:一键部署热门 MCP Server
依赖 Serverless 应用开发平台 CAP,我们能够快速实现开源 MCP Server 一键托管,假如您搭建的 AI Agent 中需要加入导航服务,您可能会需要高德社区提供的 MCP Server ,接下来我们将以开源项目 amap-maps-mcp-server 为例演示如何一键部署 MCP Server 到函数计算 FC 上。
第一步:模板部署
cap.console.aliyun.com/create-proj... 进入 CAP 控制台。填入从高德开发者申请的 Token(立刻申请完成),可以在这里申请。
第二步:测试 MCP Server 提供的工具能力
部署成功之后,通过触发器页面,拿到测试 URL 可对当前 MCP Server 进行测试。如果希望将部署的 MCP Server 用于生产,建议使用自定义域名代替测试 URL。
测试步骤一:本地终端运行命令: npx @modelcontextprotocol/inspector
测试步骤二:浏览器中打开本地提供的测试地址"http://localhost:5173/#tools"进行测试,在 URL 表单中填入上面获取的 URL,添加 /sse 后缀填入 URL 表单中,点击 Connect 会看到开源 MCP Server 提供的 Tools 列表,可以点击置顶 Tool 进行交互验证。
如果您对于产品有更多建议或者对 MCP server 云端托管有更多想法可以加入钉钉群(群号:64970014484)与我们取得联系。
更多开源 MCP Server一键部署
MCP 开源地址 | 编程语言 | 一键部署 | Server 类型 |
---|---|---|---|
github.com/baidu-maps/... | Node | cap.console.aliyun.com/create-proj... | mcp-proxy |
github.com/modelcontex... | Node | cap.console.aliyun.com/create-proj... | mcp-proxy |
github.com/modelcontex... | Node | cap.console.aliyun.com/create-proj... | mcp-proxy |
github.com/modelcontex... | Python | cap.console.aliyun.com/create-proj... | mcp-proxy |
github.com/modelcontex... | Node | cap.console.aliyun.com/create-proj... | mcp-proxy |
github.com/modelcontex... | Python | cap.console.aliyun.com/create-proj... | mcp-proxy |
github.com/devsapp/ama... | Node | cap.console.aliyun.com/create-proj... | mcp-proxy |
github.com/modelcontex... | Node | cap.console.aliyun.com/create-proj... | sse |
github.com/modelcontex... | Node | cap.console.aliyun.com/create-proj... | mcp-proxy |
github.com/modelcontex... | Node | cap.console.aliyun.com/create-proj... | mcp-proxy |
github.com/modelcontex... | Node | cap.console.aliyun.com/template-de... | sse |
github.com/modelcontex... | Node | cap.console.aliyun.com/create-proj... | mcp-proxy |
点击此处,了解更多