大模型训练CP切分(与TP、SP结合)

一. CP并行原理

megatron中的context并行(简称CP)与sequence并行(简称SP)不同点在于,SP只针对LayernormDropout输出的activation在sequence维度上进行切分,CP则是对所有的input输入和所有的输出activation在sequence维度上进行切分,可以看成是增强版的SP。之前我有篇文章重点讲了TP、SP、EP技术。本文我讲下长文本的CP技术,以及怎么和TP和SP结合的。

  • 如果是为了常规显存优化 (Megatron 路径),设置 sequence_parallel=True,此时它依附于 TP 。此时未配置CP, SP=TP 。总卡数

  • 如果是为了训练长文本 (1M 上下文这种),参数通常是 context_parallel_size,此时它与 TP 是乘法关系, CP与TP正交,SP=TP 。总卡数

二. CP+TP并行场景分析

下文我们重点分析训练长文本的场景,即CP>1。CP=1的常规场景前文有分析。

  1. TP=1 情况

(1)本地K,V计算:CP是按输入token维度切分好,设c=CP, 维度[B, S/c, D]作为输入进行Q、K、V计算,通过乘以矩阵。各卡得到的K, V, Q, 都是本地的部分结果。

(2)全局K, V计算:需要再通过一次all-gather得到全局K、V, 注意Q不是全局,是分卡存储。

(3)计算attention: 。输出维度和Q不变,还是[B,S/c, D] 。

(4)后续再经过linear, Dropout等,维度都不变。

  1. TP>1 情况, 此时CP与TP正交。

(1)本地K, V计算:维度[B, S/c, D]作为输入进行Q、K、V计算,通过乘以矩阵, 此时因为TP>1,矩阵都会按列切分到TP下的各GPU上. 设h=TP(head数),, 。 Q, K, V运算的结果Q, K, V矩阵维度是[B, S/c, D/h]。

(2)全局K, V计算:K, V通过一次all-gather聚合,维度是[B, S, D/h]。

(3)计算attention, 。输出维度和Q不变,还是[B,S/c, D/h] 。

(4) 然后计算linear, 此时矩阵通过按行切分,到各GPU的, 输出维度是[B, S/c, D], 但此时各GPU在D维度的数据后续需要做一次reduce聚合。

(5)进入dropout,layernorm前,再进行reduce-scatter操作, 相当于在D维度上做了一次reduce聚合. Scatter相当于在SP维度再进行一次切分,Megtron默认SP=TP。输出维度是[B, S/c/h, D].

三. CP+TP+SP+EP全场景分析

举例CP=2, TP=2, SP=2,EP=2,CP与TP正交

相关推荐
DevilSeagull2 小时前
C语言: 动态内存管理
人工智能·语言模型·自然语言处理
破晓之翼2 小时前
从第一性原理和工程控制论角度企业去思考AI开发避免完美主义陷阱
人工智能
njsgcs2 小时前
屏幕元素定位(Grounding) ollama两个模型
人工智能
码农杂谈00072 小时前
企业 AI 推理:告别黑箱决策,4 步构建可解释 AI 体系
大数据·人工智能
LaughingZhu2 小时前
Product Hunt 每日热榜 | 2026-02-18
大数据·数据库·人工智能·经验分享·搜索引擎
量子-Alex3 小时前
【大模型思维链】COT、COT-SC、TOT和RAP四篇经典工作对比分析
人工智能·深度学习·机器学习
分享牛3 小时前
大模型结合BPMN语言,下一代BPM产品的雏形
人工智能·搜索引擎·llm·bpmn
MoonOutCloudBack3 小时前
VeRL 框架下 RL 微调 DeepSeek-7B,比较 PPO / GRPO 脚本的参数差异
人工智能·深度学习·算法·语言模型·自然语言处理
量子-Alex3 小时前
【大模型智能体】Agent-as-a-Judge
人工智能