ModelOps 通常由企业 IT 团队自行负责,传统上,其环境搭建、模型开发/下载、模型部署、训练微调、资源监控与优化......所有环节均由运维人员手动操作完成,整个过程费时费力,模型交付慢,后期多模型管理复杂繁琐。因此,不少云服务商为企业提供了 MaaS (模型即服务,一些厂商也将其产品称为"AI 平台 "或"推理平台"),为企业用户提供"开箱即用"的大模型服务,简化模型部署、管理与微调,提升推理效率与资源利用率。具体的能力一般包括:
- 模型仓库:存放可调用的预训练模型(大语言模型、NLP、CV、语音等)。
- 算力资源管理:不同位置的异构算力资源统一管理。
- 推理服务:预集成运行模型的推理引擎和推理框架(如 vLLM、Llama.cpp、SGlang)。
- API / SDK 接口:提供 HTTP/gRPC 等调用方式。
- 模型管理:多模型统一运维管理。
- 可观测性:统计资源使用率,推理实例性能表现(TTFT、TPOT、ITL 等)。
- 计量与计费:统计调用次数、Token 使用情况等。
- 安全与权限控制:限制访问、保护数据隐私。
更多 AI 知识科普、AI 大模型落地方案与 AI 基础设施建设实践,欢迎阅读往期博客:
AI 模型落地关键概念解读:推理引擎/ModelOps/MaaS/AI Agent...
AI实践分享|以MCP简化IT运维管理,生成定制化报表(附操作演示)
SmartX AI 基础设施新增昇腾 NPU 与 MindIE 支持能力:方案与评测