《重塑AI应用架构》系列: Serverless与MCP融合创新,构建AI应用全新智能中枢

在人工智能飞速发展的今天,数据孤岛和工具碎片化问题一直是阻碍AI应用高效发展的两大难题。由于缺乏统一的标准,AI应用难以无缝地获取和充分利用数据价值。

为了解决这些问题,2024年AI领域提出了MCP(Model Context Protocol模型上下文协议),这一标准化接口协议旨在打破AI模型与外部资源之间的壁垒。就像 USB-C 接口一样,为AI模型/应用与各种数据源和工具之间提供了一种通用的"即插即用"连接方式,让AI模型与外部工具与数据源之间安全双向连接,大大提高了AI开发的效率和灵活性。

随着MCP作为AI 连接数据和工具的统一标准逐渐普及,也标志着AI应用从"静态推理"向"动态执行"的转型,AI应用的全新架构也面临着灵活性、性能与安全等诸多挑战。

华为云AI原生应用运行平台+MCP,重塑 AI 应用架构新范式

为更好的适应全新AI应用架构,华为云推出AI原生应用运行平台+MCP产品组合方案,基于MCP整合Serverless 及一系列平台关键组件,为开发者提供高效、灵活、可靠的AI应用开发与部署方案,实现大模型与外部数据源的"即插即用"安全连接,助力开发者快速构建灵活扩展、安全可信的AI应用,实现AI应用的商业化。

华为云AI原生应用运行平台+MCP产品组合方案

AI应用架构新范式解析

  • **用户请求:**用户向AI应用发起请求时,请求流量首先进入流量+ AI网关(APIG)。APIG作为应用的入口,维护管理所有AI Agent、MCP Server和LLM的路由规则,确保每个请求都能快速、准确地找到处理路径,同时支持流式响应,为用户带来更流畅的交互体验。
  • Agent **托管:**开发者可通过多种方式自建Agent,CAE为Agent提供了理想的Serverless应用环境,根据负载自动实现资源的动态分配,确保Agent始终处于最佳运行状态。
  • **访问MCP Server获取外部数据:**MCP Server这类事件驱动型业务尤其适合部署在Serverless函数(FunctionGraph)上,通过Python/Go等语言快速构建MCP Server,实现毫秒级弹性扩缩容。
  • **现存业务接入:**可经由MCP注册/配置中心(CSE)的帮助注册到Nacos上并实现自动注册发现,MCP网关可以将API转换成MCP Server,实现应用的平滑升级。
  • **通过应用中心模板快速部署Agent/MCP Server:**应用中心汇聚丰富的Agent/MCP应用模板,开发者只需一键操作即可部署,实现开箱即用。华为云也会将中间件(DCS、DMS、EventGrid)等服务能力以预置MCP Server的方式上架到应用中心。
  • **异步推理:**在多模态或长周期任务执行场景下,Agent往往采用异步推理的方式与LLM进行交互,消息队列不仅能够起为大模型起到削峰填谷的作用,而且支持主动推送方式提升LLM响应的实时性。

Serverless与MCP融合创新,构建AI应用全新智能中枢

从上面的整体方案我们可以看到MCP Server无疑是整个AI应用架构新范式的智能中枢,如何就保障MCP Server安全可靠运行与弹性高效扩展显得至关重要。

传统本地搭建MCP Server存在挑战:

  • **在传统的MCP Server部署模式下,资源静态分配问题尤为突出。**企业在搭建MCP Server时,需要提前预估流量峰值,以确定所需的资源,但由于业务的不确定性,预估流量往往与实际流量存在较大偏差,导致资源的浪费或性能瓶颈。在业务淡季,大量的服务器资源处于闲置状态,造成了成本的浪费,而在业务高峰期,由于资源不足,MCP Server可能会出现卡顿甚至崩溃,影响用户体验。
  • **开发成本高。**从底层的资源搭建到上层的MCP逻辑实现,都需要投入大量的人力和时间,仅开发部分工作量就需要几天时间,且还不包括后续的测试和部署工作。开发者还需要重复实现鉴权、日志等通用功能,进一步增加了开发的复杂性和成本。
  • **安全风险同样不容忽视。**在传统的常驻服务模式下,服务进程会一直运行,这就可能导致上下文残留,增加了数据泄露的风险,一旦服务器被攻击,攻击者就有可能获取到残留的上下文信息,从而窃取敏感数据,给企业带来巨大的损失。

Serverless函数:MCP Server托管的最优解决方案

Serverless函数计算作为云上Serverless算力的典型代表,在资源弹性、开发效率、安全性等方面具备显著优势,可以为MCP Server的托管提供灵活、高效、可靠的运行时环境,直击传统搭建MCP Server的核心痛点。

  • **资源智能弹性调度,Serverless函数计算能够根据实际流量自动调整资源配置。**根据函数的负载情况,通过自动化、智能化的资源扩缩容弹性机制,自动完成函数规格的调整,毫秒级弹性轻松应对突发流量冲击,确保服务的稳定运行。而在流量较低时,空闲函数会自动休眠,成本趋近于零,大大降低了企业的运营成本。
  • **极简开发部署与运维。**应用中心提供了预置的MCP应用模板,如server-github等,开发者只需进行简单的配置,即可在30秒内完成MCP Server部署。Serverless函数计算还具备免运维的特性,自动处理日志、监控、扩缩容等,让开发者能够专注于业务逻辑开发,大幅度提高了开发效率和质量。
  • **运行安全保障。**业务每个请求都在独立的沙箱环境中执行,执行后自动销毁实例,有效防止了上下文残留带来的数据泄露风险。同时支持细粒度权限控制,根据最小化原则授权,只赋予每个请求所需的最小权限,降低了权限滥用的风险。支持临时Token认证,进一步增强了认证的安全性和灵活性。

Serverless与MCP结合实践场景演示

传统大语言模型,就像一个有大脑会思考、有嘴巴会讲话的机器人,它可以解答我们各种问题,教我们如何完成一件事,但是它没有手和脚,不能直接去完成各种事情,现如今各种各样的MCP Server就如同大模型的手和脚,让其具备了这样的能力。这里我们以MCP官方提供的Everything MCP Server来演示如何让大模型通过调用MCP工具获取环境中的环境变量。

以大模型DeepSeek V3演示具体的工具调用,当我们没有启用MCP时,向大模型提问可以看到他只能告诉我们如何完成这件事,而不能亲自去做。

而当我们启用MCP后,可以看到大模型调用了printEnv工具并正确获取到了所有环境变量。

MCP与Serverless的创新融合,正在重塑着AI应用架构的未来格局,将为AI应用带来更高的灵活性、安全性和效率,为企业和开发者提供更便捷、高效的开发方式,赋能加速AI应用的创新和落地。

紧跟智能化时代AI技术的飞速发展,华为云AI原生应用运行平台+MCP整体产品组合方案,未来还可以与智能化研发、AI Agent开发、AIOps应用可观测、应用韧性评估体系等能力相结合,在生态方面和鸿蒙开发者平台、华为云开发者空间相结合。实现"开发-运行-运维"全链路的AI应用新范式,为AI原生应用提供一站式极简的构建能力,让开发者能够更专注于业务创新,推动AI应用的快速发展和广泛应用。

后续我们将持续推出核心产品组件与MCP结合的系列应用场景与方案,产品能力也将逐步上线,欢迎持续关注。

相关推荐
樱花穿过千岛湖2 分钟前
第六章:Multi-Backend Configuration
人工智能·python·gpt·学习·ai
跳跳糖炒酸奶32 分钟前
第十五讲、Isaaclab中在机器人上添加传感器
人工智能·python·算法·ubuntu·机器人
前进的程序员1 小时前
深度学习:人工智能的核心驱动力
人工智能
_一条咸鱼_1 小时前
Python 名称空间与作用域深度剖析(二十七)
人工智能·python·面试
_一条咸鱼_1 小时前
Python之函数对象+函数嵌套(二十六)
人工智能·python·面试
_一条咸鱼_1 小时前
Python 文件操作之修改(二十二)
人工智能·python·面试
_一条咸鱼_1 小时前
Python 闭包函数:原理、应用与深度解析(二十八)
人工智能·python·面试
_一条咸鱼_1 小时前
Python 之文件处理编码字符(二十)
人工智能·python·面试
_一条咸鱼_2 小时前
Python 装饰器:代码功能的优雅增强(二十九)
人工智能·python·面试
_一条咸鱼_2 小时前
Python 文件处理(二十一)
人工智能·python·面试