大模型张量并行和序列并行介绍

以Transformer为例,介绍大模型训练过程中常用的张量并行(TP)和序列并行(SP)技术,推导在不同并行策略下的显存大小和通信量。

Transformer结构

单层Transformer由一个Attention模块和一个MLP模块组成

假设数据类型为fp16,输入shape为(s, b, h),b为head数量,分析激活内存:

  • LayerNorm:一共2层,每层的输入占 2 s b h 2sbh 2sbh,共 4 s b h 4sbh 4sbh
  • MLP:第一层的输入 2 s b h 2sbh 2sbh,第二层的输入 8 s b h 8sbh 8sbh; G e L U GeLU GeLU的输出 8 s b h 8sbh 8sbh, D r o p o u t Dropout Dropout的mask为 s b h sbh sbh,一共是 19 s b h 19sbh 19sbh
  • SelfAttention:初始输入 2 s b h 2sbh 2sbh, q , k , v q,k,v q,k,v占用 6 s b h 6sbh 6sbh, S o f t m a x Softmax Softmax的输出 2 a s 2 b 2as^2b 2as2b, D r o p o u t Dropout Dropout的mask和输出 3 a s 2 b 3as^2b 3as2b,输出 L i n e a r Linear Linear层的输入 2 s b h 2sbh 2sbh,最后一个 D r o p o u t Dropout Dropout的mask为 s b h sbh sbh。一共是 11 s b h + 5 a s 2 b 11sbh+5as^2b 11sbh+5as2b

A c t i v a t i o n s m e m o r y p e r l a y e r = s b h ( 34 + 5 a s h ) Activations\ memory\ per\ layer = sbh(34 + 5\frac{as}{h}) Activations memory per layer=sbh(34+5has)

张量和序列并行

Tensor Parallelism

当单卡放不下单个模型时,可以使用张量并行。megatron论文中Transformer中张量并行的流程图:

forward过程中, f f f不做任何操作, g g g表示AllReducebackward过程中, g g g不做任何操作, f f f表示AllReduce

**MLP:**先沿着列切分第一个线性层的权重,再沿着行切分第二个线性层的权重

**Attention:**先沿着列切分 q , k , v q,k,v q,k,v投影线性层,各自计算selfattention;再沿着行切分输出线性层

通信量分析:前向2次AllReduce,反向2次AllReduce


张量并行同时减少了模型大小和激活值,开启后激活值显存占用为
A c t i v a t i o n s m e m o r y p e r l a y e r = s b h ( 10 + 24 t p + 5 a s h ) Activations\ memory\ per\ layer = sbh(10 + \frac{24}{tp} + 5\frac{as}{h}) Activations memory per layer=sbh(10+tp24+5has)

Tensor and Sequence Parallelism

序列并行可用于减少LayerNormDropout模块的激活值,通常与张量并行结合使用

沿着(s, b, h)s方向切分过的数据,输入到LayerNormDropout层计算

在输入AttentionMLP前,进行AllGather,沿着sp聚合;输入LayerNormDropout前,进行ReduceScatter,沿着sp切分

通信量分析:forward2次AllGather,2次ReduceScatter;反向2次AllGather,2次ReduceScatter

SP并行减少了LayerNormDropout层的激活值,激活值分析:
A c t i v a t i o n s m e m o r y p e r l a y e r = s b h ( 10 s p + 24 t p + 5 a s h ) Activations\ memory\ per\ layer = sbh(\frac{10}{sp} + \frac{24}{tp} + 5\frac{as}{h}) Activations memory per layer=sbh(sp10+tp24+5has)

Ulysses-SP

DeepSpeed-Ulysses 是一种高效的长序列并行技术,通过All2All重排将序列维度并行转为多头并行,无需切分模型权重

通信量分析:前向和反向分别做4次All2All;单次All2All的通信量为 N d / P Nd/P Nd/P

Ulysses vs. TP-SP

Attention模块来看:

  • Megatron通过TP,显式地把 W q , W k , W v Wq, Wk, Wv Wq,Wk,Wv切分开 ,每张卡上计算所有seq的部分head的结果
  • Ulysses通过all2All,在每张卡完整保存 W q , W k , W v Wq, Wk, Wv Wq,Wk,Wv的前提下 ,让每张卡上计算所有seq的部分head的结果。

  • Megatron Tp-Sp4 AllGather + 4 ReduceScatter,总通讯量为8Nd
  • DeepSpeed Ulysses8 All2All,总通讯量为8Nd/P,可以增加卡数来降低通信量

参考资料

  1. Efficient Large-Scale Language Model Training on GPU Clusters Using Megatron-LM
  2. Reducing Activation Recomputation in Large Transformer Models
  3. DeepSpeed Ulysses: System Optimizations for Enabling Training of Extreme Long Sequence Transformer Models
相关推荐
F_U_N_21 分钟前
拒绝手动配环境!MonkeyCode:手机就能写项目,AI全程扛事
人工智能·ai编程
helloworddm23 分钟前
Vulkan GPU图像处理之对数变换:Kompute框架实战与性能分析
图像处理·人工智能·计算机视觉
旺仔Sec27 分钟前
一万字带您看懂:从“赛项”到“赛道”解读世界职业院校技能大赛改革与备赛策略
人工智能·世界职业院校技能大赛·大赛
海兰29 分钟前
【第2篇-续】从零开始helloworld使用openAI通用模型的完整实现示例附源代码
java·人工智能·spring boot·alibaba·spring ai
科研实践课堂(小绿书)30 分钟前
基于AI智能算法的装备结构可靠性分析与优化设计技术
人工智能·机器学习
蕤葳-37 分钟前
理性分析:如何利用考证作为抓手,构建系统化知识体系与职业规划?
人工智能·网络协议·https
秋939 分钟前
学霸圈公认的 10 种高效学习习惯:从低效到顶尖的底层逻辑
人工智能·学习·算法
大强同学1 小时前
我用AI管知识库后,再也回不去了
人工智能
2501_944934731 小时前
2026销售岗怎样提升客户管理效率?
人工智能
AI精钢1 小时前
Claude Opus 4.7 是一次失败的升级吗?一次基于用户反馈的技术复盘
网络·人工智能·ai·大模型·llm·claude·技术评论