跨数据中心的创新:Moonshot AI与清华大学提出PrfaaS架构

Moonshot

AI 与清华大学的研究团队最近推出了一种新架构--PrfaaS架构

说实话,这个架构的思路挺聪明的。大型语言模型的推理一直是个头疼问题------计算资源需求大,传统架构又受限于数据中心。现在 Moonshot AI 和清华大学提出了一个新方案:把预填充和解码拆开,跨数据中心处理。

问题在哪:传统架构的瓶颈

大型语言模型的推理分为两个阶段:预填充和解码。预填充阶段处理输入、生成键值缓存(KVCache),这是计算密集型;解码阶段逐个生成输出,这是内存带宽密集型。传统架构要求这两个阶段在同一个数据中心完成,这就导致计算和带宽互相牵制,资源利用率上不去。

简单说,就是"一条龙服务"全挤在一个地方,既要有强算力,又要有大带宽,成本高、效率低。

PrfaaS的核心思路:拆分与协同

PrfaaS 的做法是:把预填充任务卸载到专用的高计算集群,生成 KVCache 后,通过通用以太网传到本地解码集群。这样,计算密集的预填充可以在专门的算力中心完成,而带宽密集的解码可以在靠近用户的地方进行。

研究表明,这个架构的服务吞吐量提高了 54%。延迟更低,效率更高。关键是,它打破了"必须在同一数据中心"的限制,让资源调配更灵活。

架构设计:三大子系统分离

PrfaaS 把计算、网络、存储三大子系统分开管理。通过精确的路由机制,长请求能高效传输,避免了传统方法中因资源分配不均导致的拥堵。同时,系统引入了双时间尺度调度机制,应对不同流量模式的变化,进一步优化资源利用。

这个设计的好处是:每个子系统可以独立扩展,不会互相拖后腿。计算集群可以堆算力,网络可以优化带宽,存储可以按需配置。

实际效果:吞吐量提升 54%

研究团队的测试数据显示,相比传统模型,PrfaaS 的服务吞吐量提高了 54%。在实际案例中,延迟明显降低,资源利用效率更高。这意味着,同样的硬件投入,能支撑更多的推理请求;或者说,同样的请求量,可以用更少的资源完成。

对于 AI 服务商来说,这是实打实的成本降低和性能提升。

行业意义:跨数据中心推理的新路径

随着大型语言模型的应用越来越广,推理需求持续增长。传统架构的瓶颈越来越明显------要么堆算力,要么堆带宽,成本居高不下。PrfaaS 提供了一个新思路:跨数据中心协同,让计算和带宽各得其所。

这个方向可能会引领一波架构创新。未来,我们可能会看到更多类似的"拆分+协同"方案,让 AI 推理更高效、更经济。

未来发展:硬件与架构的协同

研究团队提到,随着新型硬件的不断涌现,PrfaaS 的价值会进一步体现。比如,专用推理芯片、高速网络技术,都能与这个架构配合,进一步提升性能。

短期来看,PrfaaS可能会在大型AI服务商中率先落地,降低推理成本;长期来看,这种跨数据中心的思路,可能会成为 AI 推理架构的主流范式之一。

文章来源:AITOP100,原文地址:https://www.aitop100.cn/prfaas

相关推荐
深藏功yu名2 小时前
大模型推理加速实战技术
人工智能·python·ai·pycharm
GISer_Jing2 小时前
AI时代前端开发者成长计划
前端·人工智能
Swilderrr2 小时前
学术研读报告:Mem0 面向生产级 AI 智能体的可扩展长期记忆架构
人工智能·学习
云烟成雨TD2 小时前
Spring AI Alibaba 1.x 系列【30】Nacos Skill Registry 的底层设计与实现
java·人工智能·spring
Zzj_tju2 小时前
大语言模型部署实战:从 Ollama、vLLM 到 SGLang,本地服务到底怎么搭?
人工智能·语言模型·自然语言处理·vllm
不会学习的小白O^O2 小时前
使用可识别的CNN进行茶花检测和拔出点识别
人工智能
catoop2 小时前
AI RAG 问答质量测评 Answer Correctness 指标详解
ai
TheRouter2 小时前
gpt-image-2发布第一天,我用它替换了文章配图的整套流程
gpt·ai·ai作画·llm·openai
CS创新实验室2 小时前
AI推理进化史:从GPT到推理模型,AI的“思考能力”如何突破?
人工智能·gpt