全球 AI 开发者们热议"MCP"(Model Context Protocol)。尽管这一协议在2024年由Anthropic发布时并未引起广泛关注,但2025年初,Cursor宣布集成MCP迅速将其带入开发者的视野,3月Manus的爆发更是加速了MCP的普及。而就在3月27日,OpenAI正式宣布其Agent SDK全面支持MCP协议,这一举措标志着MCP将会成为该领域的实施标准,必将重塑AI应用的开发与交互方式。
目前,社区的MCP Server大多采用本地STDIO模式部署,尽管这种模式能支持基本模型服务和工具的数据交互,简单测试尚可,但在涉及具体的开发,调试,由于IO重定向带来不同程度的开发复杂度;同时随着AI场景的日益丰富,一方面数据访问不再仅限于本地,另一方面业务对于架构可靠性要求,基于本地部署的 MCP Server 势必无法满足复杂的生产需求。因此,云上托管的MCP Server将成为未来的主流趋势。函数计算(FC)目前已支持一键托管开源的MCP Server,欢迎大家前来体验。
为什么云上托管 MCP Server 是趋势?
- 吸引更多开发者参与MCP生态建设
MCP协议成为事实标准后,开发者无需为每个Function编写复杂的JSON Schema参数说明,这大大降低了重复开发的工作量。通过开源或第三方的MCP Server,开发者能够迅速共享和复用资源。例如,Blender-MCP项目允许用户通过MCP协议将自然语言指令转化为三维建模操作,项目开源一周便获得了5.4k stars。
- SaaS服务商拥抱MCP Server
随着MCP的普及,SaaS服务商可以通过集成MCP Server触达新的市场和行业机会,而MCP协议的Stdio和SSE标准要求服务和数据供应商提供API访问,而云上托管将是最优选择。
- 企业级 MCP Server 要求安全合规和弹性伸缩
MCP Server 将服务/数据对接给大模型,如果不限制大模型的数据权限范围和敏感数据过滤,将对企业产生安全合规风险,云上托管提供权限管控、操作审计、用户隐私保护等内置安全工具,大幅减少安全风险暴露面,合规成本低。同时 MCP Server 的爆火,对服务商是巨大的机会,服务商将面临着用户量和模型调用量的突增,云上托管如函数计算具备免运维、自动弹性、自动容灾的优势,确保服务体验的同时实现降本增效。
云上托管 MCP Server 核心痛点
- 传统托管效率低
从 MCP 架构的描述中可以看到,MCP Server 作为 AI 大模型和企业服务的中间层,通过购买传统云资源部署效率低下,其代码通常相对轻量,开发者需要快速部署,快速测试仅仅可能是一条NPX命令。 "MCP Servers: Lightweight programs that each expose specific capabilities through the standardized Model Context Protocol"。
- 业务规模不确定
作为原有 Function Calling 的替代者,工具调用请求规模具有显著的不确定性,传统云资源托管需要长期持有资源,资源供给无法实现按业务流量进行灵活的动态适配。
- 定制扩展流程复杂
MCP Server 作为AI和企业服务能力的中间层,其逻辑覆盖简单路由到复杂计算,随着业务场景的丰富会变得越发复杂,务必在选择云上托管的时候,也要考虑后续业务的开发和维护效率。 务必要求开发层面需要更灵活的定制能力,实现快速变更,快速上线,灵活的版本和流量管理。
- 数据访问网络配置复杂
传统MCP Server依赖于本地化部署实现数据安全,随着云端部署的普遍化,云端 MCP Server 不仅需要能够实时安全的访问企业私有数据,也需要适配复杂的业务环境,在Internet和Intranet网络之间进行互通,这就要求能够快速的互联网公共服务和企业云上 VPC 快速打通,提供安全灵活的执行环境。
函数计算成为云上托管 MCP Server 的最简方式
社区积极的推动 MCP 协议演进,推动 Steamable HTTP transport 技术代替原有 HTTP+SSE 的通信方式,原有的 MCP 传输方式就像是你和客服通话时必须一直保持在线(SSE 需要长连接),而新的方式更像是你随时可以发消息,然后等回复(普通 HTTP 请求,但可以流式传输)。这种形式与 Serverless 算力无状态模式更加契合,协议层演进将更有利于云上Serverless算力的价值放大,随着AI模型复杂度和数据规模持续增长,Serverless与MCP Server的结合将成为趋势。
函数计算作为云上Serverless 算力的典型代表,其凭借在开发效率,按需付费,极致弹性等产品能力直击云上 MCP Server 托管的核心痛点,为企业MCP Server 提供高效,灵活,匹配业务规模的托管能力。
- 成本效益最大化
- 按需付费,避免资源浪费:Serverless按实际计算资源消耗计费,而非固定服务器租赁费用,尤其适合AI训练和推理任务中常见的波动性负载。
- 消除闲置成本:AI模型训练通常需要突发性算力,Serverless能自动分配资源,避免传统模式下预留资源导致的服务器空置问题。
- 弹性扩展与资源优化
- 动态资源分配:将MCP Server 托管在函数计算上,基于Serverless架构,可实时响应AI任务需求,自动扩展CPU/GPU,确保算力高并发处理能力。
- 多模型协作支持:支持多个AI项目并行运行,资源按优先级动态调度,提升整体算力利用率。
- 简化运维与加速开发
- 无服务器管理:开发者无需关注服务器配置、补丁更新或集群管理,专注算法优化和迭代MCP Server 内部逻辑和工具丰富度。
- 开箱即用的工具链:函数计算提供了完善的工具链能力,基于开源 Serverless Devs开源工具实现本地快速部署。
- 更灵活的MCP协议适配
- 当前函数计算提供单实例多并发能力,扩展对存量SSE协议的适配,基于社区提供的MCP Proxy方案能够快速将存量本地MCP Server托管到云端,方便业务平台的测试开发。
- 提供基于WebSocket 的MCP协议适配参考实现,支持单实例单并发和单实例多并发能力支持,提升协议适配和场景适配;同时团队紧跟社区 Streamable HTTP 方案,敬请期待!
体验:一键部署热门 MCP Server
依赖 Serverless 应用开发平台 CAP,我们能够快速实现开源 MCP Server 一键托管,假如您搭建的 AI Agent 中需要加入导航服务,您可能会需要高德社区提供的 MCP Server ,接下来我们将以开源项目 amap-maps-mcp-server 为例演示如何一键部署 MCP Server 到函数计算FC上。
第一步: 模版部署
点击 cap.console.aliyun.com/create-proj... 进入CAP控制台。填入从高德开发者申请的 Token(立刻申请完成),可以在这里申请。
第二步: 测试 MCP Server 提供的工具能力
部署成功之后,通过触发器页面,拿到测试URL可对当前MCP Server进行测试。如果希望将部署的MCP Server 用于生产,建议使用自定义域名代替测试URL。
测试步骤一:本地终端运行命令: npx @modelcontextprotocol/inspector
测试步骤二:浏览器中打开本地提供的测试地址"http://localhost:5173/#tools "进行测试,在URL表单中填入上面获取的URL,添加/sse 后缀填入URL表单中,点击Connect会看到开源 MCP Server提供的Tools列表,可以点击置顶Tool进行交互验证。
如果您对于产品有更多建议或者对 MCP server 云端托管有更多想法可以加入钉钉群(群号:64970014484)与我们取得联系。
更多开源 MCP Server一键部署
MCP 开源地址 | 编程语言 | 一键部署 | Server 类型 |
---|---|---|---|
github.com/baidu-maps/... | Node | cap.console.aliyun.com/create-proj... | mcp-proxy |
github.com/modelcontex... | Node | cap.console.aliyun.com/create-proj... | mcp-proxy |
github.com/modelcontex... | Node | cap.console.aliyun.com/create-proj... | mcp-proxy |
github.com/modelcontex... | Python | cap.console.aliyun.com/create-proj... | mcp-proxy |
github.com/modelcontex... | Node | cap.console.aliyun.com/create-proj... | mcp-proxy |
github.com/modelcontex... | Python | cap.console.aliyun.com/create-proj... | mcp-proxy |
github.com/devsapp/ama... | Node | cap.console.aliyun.com/create-proj... | mcp-proxy |
github.com/modelcontex... | Node | cap.console.aliyun.com/create-proj... | sse |
github.com/modelcontex... | Node | cap.console.aliyun.com/create-proj... | mcp-proxy |
github.com/modelcontex... | Node | cap.console.aliyun.com/create-proj... | mcp-proxy |
github.com/modelcontex... | Node | cap.console.aliyun.com/template-de... | sse |
github.com/modelcontex... | Node | cap.console.aliyun.com/create-proj... | mcp-proxy |
更多内容关注 Serverless 微信公众号(ID:serverlessdevs),汇集 Serverless 技术最全内容,定期举办 Serverless 活动、直播,用户最佳实践。