BurstAttention:可对非常长的序列进行高效的分布式注意力计算

提高llm中注意力机制效率的努力主要集中在两种方法上:优化单设备计算和存储能力,如FlashAttention,以及利用多设备的分布式系统,如RingAttention。

FlashAttention通过使用静态随机存储器(SRAM)来存储中间状态,而不是依赖于高带宽存储器(HBM)来提高注意力计算速度。

而RingAttention通过将长序列划分为子序列并将其分布在多个设备上进行并行处理来处理长序列。

虽然它们都提高了处理速度和效率,如果将它们组合起来使用是否可以有更大的提高呢?理论上是这样,但是在分布式环境中直接组合这两种方法无法充分利用它们的优势,并且存在兼容性问题。

而最新的研究BurstAttention可以将2者结合,作为RingAttention和FlashAttention之间的桥梁。

BurstAttention是一个创新的框架,它优化了跨设备的计算和通信,增强了内存使用,最小化了通信开销,提高了缓存效率。

BurstAttention在集群中的设备之间分割序列,每个设备通过将序列投影到查询、键和值嵌入中来处理序列的一部分。然后这些片段在设备之间循环,计算本地注意力得分,并将其汇总为全局注意力得分。

在他们的实验中,表明BurstAttention减少了40%的通信开销,并将8×A100 gpu上128K长度序列的训练速度提高了一倍。

这篇论文是3月发布的,但是作者没有提到他们是否会发布他们的实现,所以我们先看看他的论文吧:

https://avoid.overfit.cn/post/5aacdef85b104ff0a9faea9ad84f2a95

相关推荐
_codemonster14 小时前
深度学习实战(基于pytroch)系列(三十六)循环神经网络的pytorch简洁实现
pytorch·rnn·深度学习
自然语14 小时前
人工智能之数字生命-学习的过程
数据结构·人工智能·深度学习·学习·算法
你好~每一天14 小时前
从传统行业到AI入门:我的CAIE Level I学习体验与思考
大数据·数据结构·人工智能·学习·jupyter·idea
core51214 小时前
【Java AI 新纪元】Spring AI 深度解析:让 Java 开发者无缝接入大模型
java·人工智能·spring·ai
美团技术团队14 小时前
R-HORIZON:探索长程推理边界,复旦 NLP&美团 LongCat 联合提出 LRMs 能力评测新框架
人工智能
Yuezero_14 小时前
Research Intern面试(一)——手敲LLM快速复习
pytorch·深度学习·算法
美团技术团队14 小时前
美团 LongCat 团队发布 AMO-Bench:突破 AIME 评测饱和困境,重新定义 LLM 数学上限
人工智能
m0_4889130114 小时前
Deep Research技术全解析:从Reasoning到Research with Reasoning的AI进化之路(值得收藏)
开发语言·人工智能·机器学习·大模型·ai大模型·大模型学习
雪兽软件14 小时前
在企业中实施人工智能的关键步骤
人工智能
大写-凌祁14 小时前
硬核劝学:2026年 AI 工程师“飞升”指南 (LLM/RL/VLM/AIGC 全路线)
人工智能·aigc