阿里云磐久AL128超节点,重构AI推理算力互联范式
大模型竞争进入推理落地阶段,传统AI服务器面临算力与缓存配比失衡、通信延迟过高、推理效率不足等痛点,难以适配视频生成、智能交互等高频推理场景。在2025年云栖大会上,阿里云重磅发布新一代磐久AI基础设施2.0及AL128超节点AI服务器,创新重构GPU互联模式,针对大模型推理场景打造专属服务架构,实现同等算力下推理性能提升50%,重新定义AI推理算力供给标准,为超大规模模型商业化落地提供核心支撑。
架构革新突破推理性能瓶颈。磐久AL128超节点摒弃传统分散式互联架构,采用为下一代超大集群设计的服务化架构,重新规划GPU间的互联模式,实现算力与通信的最优协同。针对大模型推理的prefill-decode解耦架构特点,动态适配不同阶段的算力与缓存需求,灵活调整配比关系,解决传统服务器固定配比导致的资源浪费问题。搭载阿里云自研AliFSC2.0 SSD控制器芯片与AliFlash V5存储硬件,基于Alibaba Open Channel SSD规范协议实现全自研FTL,端到端自主掌控存储链路,存储IOPS最高可达千万级,读写延迟低至微秒级,为推理场景提供高吞吐、低延迟的数据支撑。
全栈自研技术协同优化效能。依托阿里云飞天操作系统的全栈能力,实现从芯片、部件到整机及整机柜的软硬件融合一体化设计,优化散热及供电架构,整机全链路效率大幅提升。集成自研异构计算加速平台,为机器学习算法和应用提供统一的编译及软硬件协同优化,屏蔽异构硬件的架构差异,充分释放算力潜能。搭配基于AliNOS构建的全自研网络系统,采用多平面scale out架构,800Gbps低延迟网络实现点对点延迟2us,单集群支持万卡级GPU直连,确保超节点间数据传输高效稳定,适配大规模推理集群的协同需求。
多场景落地赋能产业升级。在视频生成场景中,依托超节点的高算力密度与低延迟互联能力,某短视频平台部署后,AI生成视频效率提升60%,高清视频渲染时间缩短至原来的三分之一,同时成本降低40%。在智能客服场景中,支撑大模型实时交互推理,响应延迟控制在50ms以内,某金融机构部署后,客服机器人解决问题准确率提升至92%,人工客服工作量减少55%。在自动驾驶场景中,配合阿里云全球可预期互联网络,实现边缘节点与中心超节点的协同推理,路况识别与决策响应效率提升30%。磐久AL128超节点通过针对性架构设计与全栈优化,为大模型推理场景提供高效算力解决方案,推动AI技术从实验室走向规模化商用。