BurstAttention:可对非常长的序列进行高效的分布式注意力计算

提高llm中注意力机制效率的努力主要集中在两种方法上:优化单设备计算和存储能力,如FlashAttention,以及利用多设备的分布式系统,如RingAttention。

FlashAttention通过使用静态随机存储器(SRAM)来存储中间状态,而不是依赖于高带宽存储器(HBM)来提高注意力计算速度。

而RingAttention通过将长序列划分为子序列并将其分布在多个设备上进行并行处理来处理长序列。

虽然它们都提高了处理速度和效率,如果将它们组合起来使用是否可以有更大的提高呢?理论上是这样,但是在分布式环境中直接组合这两种方法无法充分利用它们的优势,并且存在兼容性问题。

而最新的研究BurstAttention可以将2者结合,作为RingAttention和FlashAttention之间的桥梁。

BurstAttention是一个创新的框架,它优化了跨设备的计算和通信,增强了内存使用,最小化了通信开销,提高了缓存效率。

BurstAttention在集群中的设备之间分割序列,每个设备通过将序列投影到查询、键和值嵌入中来处理序列的一部分。然后这些片段在设备之间循环,计算本地注意力得分,并将其汇总为全局注意力得分。

在他们的实验中,表明BurstAttention减少了40%的通信开销,并将8×A100 gpu上128K长度序列的训练速度提高了一倍。

这篇论文是3月发布的,但是作者没有提到他们是否会发布他们的实现,所以我们先看看他的论文吧:

https://avoid.overfit.cn/post/5aacdef85b104ff0a9faea9ad84f2a95

相关推荐
لا معنى له3 小时前
Var-JEPA:联合嵌入预测架构的变分形式 —— 连接预测式与生成式自监督学习 ----论文翻译
人工智能·笔记·学习·语言模型
智慧景区与市集主理人3 小时前
巨有科技云票务,破解景区五一运营的入园难“效率瓶颈”
大数据·人工智能·科技
2501_933329553 小时前
企业媒体发布与舆情管理实战:Infoseek舆情系统技术架构与落地解析
大数据·开发语言·人工智能·数据库开发
Are_You_Okkk_3 小时前
AI原生与外挂的区别:开源知识库的优势及优化方向
大数据·人工智能·开源
xinlianyq3 小时前
2026 边缘智能的崛起:端云协同架构下的“词元”调度艺术
人工智能·架构·api
2301_780789663 小时前
零信任架构在云安全落地过程中的最佳实践
服务器·人工智能·游戏·架构·零信任
人工智能AI技术3 小时前
OpenClaw.NET - 自托管、多模型、NativeAOT 的 Agent 平台
人工智能
IT_陈寒3 小时前
Vite的alias配置把我整不会了,原来是这个坑
前端·人工智能·后端
Dfreedom.3 小时前
【实战篇】图像分割-计算图中不同颜色区域的面积比
图像处理·人工智能·深度学习·计算机视觉·图像分割·otsu
TDengine (老段)3 小时前
TDengine IDMP 可视化 —— 定时报告
大数据·数据库·人工智能·物联网·时序数据库·tdengine·涛思数据