PAI推理重磅发布模型权重服务,大幅降低冷启动与扩容时长

随着大语言模型(LLM)参数量呈现指数级增长,如开源模型 DeepSeekV3-671B 已达 700GB+ 规模,模型加载耗时已成为影响推理服务效率的关键瓶颈,在弹性扩容、多实例部署等场景因模型加载耗时过长,影响了服务扩展的敏捷性和模型部署的效率。

针对上述挑战,阿里云人工智能平台 PAI 创新性地发布了模型权重服务功能,大幅降低冷启动与扩容时长,解决模型加载耗时过长的业界难题,破解 LLM 超大规模部署效能瓶颈。

在 Qwen3-8B 的模型评测中,推理服务的冷启动时长TP99从235秒降低至24秒,冷启动时长降幅89.8% ;实例扩容时长降低至5.7秒,扩容时长降幅97.6%

在 Qwen3-32B 的模型评测中,推理服务的冷启动时长953秒降低至82秒,冷启动时长降幅91.4% ;实例扩容时长降低至17秒,扩容时长降幅98.2%

PAI 模型权重服务的核心技术特征包括:

  • 分布式缓存架构:利用节点内存资源构建权重缓存池。

  • 高速传输机制:基于 RDMA 的机间互联实现低延迟数据传输。

  • 智能分片策略:动态感知网络拓扑的智能分片算法。

  • 内存共享优化:实现单机多进程间零拷贝权重共享。

  • 权重智能预取:利用闲置时间提前预读模型权重。

  • 高效缓存策略:保证模型分片在实例间负载均衡。

实际部署表明,该方案在超大规模实例集群中有显著效率提升。对于传统拉取模式,扩容速度 10 倍提升;带宽利用率提高60%+;服务冷启动时间缩短至秒级。

通过充分利用多实例之间的带宽资源,实现模型权重的高效快速传输。模型权重服务不仅支持模型权重的本地缓存,还能够实现权重的跨实例共享。在处理大规模参数模型以及在大规模实例部署的场景中,MoWS能够显著提升服务的扩缩容效率和启动速度。

快速使用 PAI 模型权重服务

  1. 进入 PAI-EAS 模型在线服务页面。

a. 登录阿里云人工智能平台PAI控制台。

b. 在左侧导航栏单击工作空间列表,在工作空间列表页面中单击待操作的工作空间名称,进入对应工作空间内。

c. 在工作空间页面的左侧导航栏选择模型部署>模型在线服务(EAS),进入模型在线服务(EAS)页面。

  1. 单击部署服务,然后在自定义模型部署区域,单击自定义部署。

a. 在环境信息的镜像配置中,选择官方镜像,选择镜像仓库vllm中带有mows标识的镜像版本。

b. 在资源信息的资源类型处选择资源配额,使用PAI灵骏资源部署。

c. 在服务功能中打开模型权重服务的功能项,并进行内容如下配置。

更多推理优化技术

阿里云人工智能平台 PAI 是 AI Native 的大模型与 AIGC 工程平台,提供包含模型开发、模型训练、模型部署在内的全链路功能模块,为用户提供高性能、高稳定、企业级的大模型工程化能力。在模型推理阶段,PAI不仅提供模型权重服务,还提供 KV Cache 等推理计算优化技术,有效减少重复计算并提升 Token 生成速度,多维度提升大模型时代的模型服务效率。

相关推荐
黄雪超26 分钟前
Kafka——常见工具脚本大汇总
大数据·分布式·kafka
aneasystone本尊28 分钟前
再学 RAGFlow 的问答流程(二)
人工智能
zhurui_xiaozhuzaizai28 分钟前
多向量检索:lanchain,dashvector,milvus,vestorsearch,MUVERA
人工智能·算法·机器学习·全文检索·milvus
星期天要睡觉32 分钟前
机器学习——决策树(DecisionTree)
人工智能·决策树·机器学习
WeiJingYu.36 分钟前
机器学习——决策树
人工智能·决策树·机器学习
励志成为糕手1 小时前
动态置信度调优实战:YOLOv11多目标追踪精度跃迁方案(附完整代码)
人工智能·计算机视觉·目标跟踪
m0_558790141 小时前
GPU算力平台评测
服务器·人工智能·python·深度学习·神经网络·目标检测·机器学习
2501_924731991 小时前
驾驶场景玩手机识别:陌讯行为特征融合算法误检率↓76% 实战解析
开发语言·人工智能·算法·目标检测·智能手机
数据知道1 小时前
机器翻译的分类:规则式、统计式、神经式MT的核心区别
人工智能·分类·机器翻译
siliconstorm.ai2 小时前
AWS 算力瓶颈背后:生成式 AI 的基础设施战争
大数据·人工智能·chatgpt