本文整理自 2025 云栖大会,阿里云智能集团产品专家,刘宇演讲议题《函数计算发布 FunctionAl:serverless Al 原生应用基础设施》
在 AI 技术应用落地进程中,目前面临着五大核心挑战:开发/学习门槛过高,部署运维阶段复杂,AI 应用安全备受挑战,生态能力方面存在严重的割裂与锁定现象,同时资源成本高昂且利用率低下。这些挑战极大地阻碍了 AI 技术的广泛普及以及应用效率的有效提升。
阿里云函数计算(FC)依托 Serverless AI 基础设施与全栈能力的创新突破,推出 Function AI(函数智能),精准攻克上述痛点问题,全面推动 AI 应用在开发至运维的全流程中实现降本增效。以下将从四个关键维度,详细阐述阿里云函数计算(FC)的核心解决方案。
一、函数计算 FC:Serverless 形态的 AI 基础设施
阿里云函数计算(FC)全新推出 Serverless AI 基础设施,以"高可用、低成本、零/低运维"为核心,为企业提供从模型部署到 Agent 开发的全栈解决方案。该平台通过 Serverless 架构的弹性特性与智能化资源管理,显著降低 AI 应用的开发复杂度与资源成本,助力企业快速实现 AI 落地。
- 开发效率提升:无需关注底层资源,开发者可专注于业务逻辑,模型一键转换为 Serverless API。
- 弹性资源调度:按需付费 + N 分之一卡资源分配(如 1/16 卡),GPU 部署成本降低 90% 以上。
- 免运维特性:实例闲置时自动缩容至 0,资源利用率优化 60%,实现业务运维转型。
二、核心能力发布:AgentRun 与模型服务、文生图服务
阿里云函数计算全新发布 FunctionAI,基于 Serverless 架构的企业级 AI 应用基础设施平台,实现从模型托管到 Agent 开发的全流程覆盖,显著降低技术门槛并提升跨平台适配性。
AgentRun 全流程解决方案:
Agent Run 通过高代码与低代码结合,提升 AI 开发效率,支持主流开发生态。在部署阶段,提供轻量、灵活、安全隔离的 AI 运行时,支持多种模型和工具运行时,确保应用安全与扩展性。运维方面,Agent Run 具备全链路监控能力,免资源运维,实现业务运维转型。八大组件共同构建,助力开发者轻松构建企业级 AI 应用。
- 全生命周期能力
- 开发阶段:高代码 + 低代码模式,兼容阿里云百炼、CloudFlow、Dify 等生态,开发者可自由选择框架;
- 部署阶段:轻量、灵活、安全隔离的运行时,支持大模型/垂类模型调用,提供安全沙箱隔离机制与 MCP/Function Call 协议双保障;
- 运维阶段:全链路监控 + 端到端可观测性,定位问题并提供优化建议,实现免资源运维。
- 技术架构优势
- 百万级并发:基于 Session 亲和与多语言引擎,提供企业级沙箱服务能力;
- 毫秒级弹性:内存快照技术实现 CPU 毫秒启动、GPU 秒级响应;
- 成本降低 60%:支持 GPU/CPU/内存解耦配置(最小 0.25 CPU),实例闲置时自动缩容至 0,按需付费。
大语言模型代理机制
多模型统一接入
- 支持 Cloud、GPT、通义千问等 20 家主流大模型,实现开源模型一键部署;
- 通过统一规范管理所有模型,解决 First Token 延迟与负载均衡问题。
动态模型治理
- 自动切换机制:当主模型 First Token 时间过长或负载过高时,快速启用备用模型;
- 并行处理能力:多模型并行执行,首个返回结果的模型优先作为主模型。
工具生态联动
- 统一工具接口
- 兼容 MCP/Function Call 协议,适配主流工具与第三方服务,API 集成时间从天级降至分钟级。
- 智能工具管理
- Tool Hub 插件市场:海量插件一键部署,快速构建业务场景;
- 智能路由优化:通过语义分析前置筛选工具,降低调用时间(从 60 秒降至秒级)与 Token 消耗。
模型服务:AI 模型一键转化为 Serverless API
阿里云函数计算推出的模型服务,以 Serverless 架构为核心,通过生态兼容性、技术能力与成本优化三位一体,为企业提供从模型部署到服务调用的全链路解决方案。该服务显著降低 AI 应用开发门槛,同时保障高可用性与资源高效利用,助力企业快速构建生产级模型服务。
- 生态兼容性
- 覆盖大语言模型与垂类模型,兼容 ModelScope、HuggingFace 等主流平台;
- 支持 vLLM、SGLang、Ollama、Transformer 等技术架构的一键部署。
- 技术能力
- 提供 100+ 模型在线体验,200+ 模型一键部署;
- 六大框架一键托管,与 Agent 服务无缝集成;
- DevPod 在线环境支持代码调试与镜像自动构建,无需掌握 Dockerfile。
- 成本优化
- Serverless GPU 技术结合按量付费模式,N 分之一卡资源分配(如 1/16 卡);
- 部署成本降低 90% 以上,资源闲置时不计费,支持百万级并发与毫秒级弹性;
- 与 ComfyUI、Dify 等生态实现一键联动,消除资源预置顾虑。
文生图/声音/视频:多模态AI创作平台
多模态AI创作平台以"零门槛生成"为核心,通过全链路工具与生态联动,覆盖电商设计、游戏渲染、营销物料、教育培训等全行业场景。平台提供开箱即用的文生图/视频/声音能力,结合高性价比算力与自动化资源管理,显著降低创作门槛与成本。
- 文生图与文生视频
- 集成 ComfyUI 与 Stable Diffusion 工具,解决本地部署复杂度与显存资源限制;
- 支持全场景内容生成,从设计到渲染实现端到端自动化。
- Lora 模型训练
- 提供 Muse Lora 等专业训练器,覆盖数据标注到模型训练的全流程;
- 适配垂类场景需求,快速生成定制化模型。
- 企业级 Serverless API 调用
- 一键部署 Stable Diffusion、ComfyUI 等模型,自动转换为 Serverless API;
- 高性价比 GPU 弹性算力 + 自动扩容,支持同步/异步灵活切换。
三、Agent 最佳全栈实践:Function Q,你的云上助理
Function Q 是专业的函数计算智能助手,集成了基于大模型的代码自动生成、智能运维诊断和系统架构设计三大核心能力,显著提升 Serverless 应用的开发效率。整体技术栈基于函数计算 FC、API 网关、RocketMQ、SLS 等阿里云成熟基础服务构建,遵循云原生设计原则,提供企业级的高可用性、安全性和可观测性保障。
- 智能开发助手
- 意图驱动部署:用户通过自然语言描述需求(如"获取本地天气"),Function Q 自动生成代码并部署至函数计算,提供按量付费的 API 接口;
- 示例场景:输入"获取本地 IP",Function Q 自动查询 API 并生成可调用服务,无需手动编写 Dockerfile 或配置资源。
- 运维诊断专家
- 问题自动分析:针对资源费用异常、函数运行错误等问题,调用 MCP 工具链定位根源并提供解决方案;
- 实时监控支持:支持全链路可观测性,缩短故障排查周期,提升运维效率。
- 架构设计顾问
- 业务迁移指导:通过业务描述分析,推荐切分方法或整体打包策略,适配函数计算架构需求;
- 场景覆盖:解决开发者对 Serverless 架构迁移路径的困惑,实现零门槛上云。
四、拥抱开源,与开源共成长
阿里云函数计算将坚定拥抱开源、与开源共成长。AI 并非单纯商业化产品,而是开放共赢的技术生态平台。当下,我们已与 Agentscope、LangChain、dify 等平台开展开源托管及代码集成工作。
未来,还有两大关键动作:一是开源 AgentRun SDK,助力快速集成上层开源框架;二是推出 model plugin,让所有垂类模型可像插件般,快速接入 dify、N8N、Stable Diffusion\ComfyUI 等现有生态。我们期望借此不仅拥抱开源,更能反哺开源,携手共进。