ZeRO论文阅读

一.前情提要

1.本文理论为主,并且仅为个人理解,能力一般,不喜勿喷

2.本文理论知识较为成体系

3.如有需要,以下是原文,更为完备

Zero 论文精读【论文精读】_哔哩哔哩_bilibili

二.正文

1.前言

①为什么用该技术:当模型很大,计算单元存储不下的时候,将其分散开来,需要的时候调用即可,该技术则是应用于此

②简介:ZeRO是一种用于大规模深度学习模型训练的优化技术,旨在解决在训练大型模型时遇到的内存限制和通信开销等问题(简单理解:加速transformer)

2.补充说明

①模型并行:

模型并行是一种用于训练大型神经网络的分布式计算策略,旨在将模型参数分割并分配到不同的设备上进行计算。这种方法有助于克服单个设备内存的限制,并提高训练大型模型的效率。

②通讯

GPU通信指的是在多个GPU之间进行数据传输和通信的过程。在深度学习中,通常会使用多个GPU来加速训练过程,这就需要在GPU之间有效地传输模型参数、梯度和其他相关数据。

③混合精度和半精度是深度学习中用于提高训练效率和性能的技术,通过减少模型参数和计算过程中的精度要求来降低计算成本。以下是对混合精度和半精度的解释:

  1. 半精度

半精度是一种表示数值的方法,使用16位浮点数来存储数据。

  1. 混合精度

混合精度是一种结合了不同精度的计算和存储方案。

3.ZeRO-dp优化的细节

(内存用在什么地方:①保存模型②保存梯度③保存优化器里的状态④中间值)

①核心算法是切开放在不同地方---->和参数服务器一样

②使用半精度来训练(fp16)但权重是fp32(避免一堆极小数字累加,可能仍然为0)再转化为fp16

③对于每个w状态只拷贝一份,避免重复-------->参与服务器的思想-------->内存使用下降

4.ZeRO-R优化的细节

①不同于计算来换空间,这里是带宽来换空间

②对于额外的临时缓存:设置固定大小

③对于内存碎片:不断的整理

5.具体实施(假定为两块卡,一个层)

①Pos(zero1)

②Pg(zero2)

③Pp(zero3)

使用后呈现的结果:

6.如何降低中间变量

①切分层(主要作用于模型并行)

PA:

②buffer

类比:在发送数据上,等待足够多的再发送,就像把包裹塞满卡车

③内存整理

(上述都是使用在上层)

7.在megantron上

①实验主图

②超线性性能增长

相关推荐
乌旭29 分钟前
边缘计算场景下的模型轻量化:TensorRT部署YOLOv7的端到端优化指南
人工智能·深度学习·yolo·transformer·边缘计算·gpu算力
沉默的舞台剧1 小时前
【深度学习入门_NLP自然语言处理】序章
人工智能·深度学习·自然语言处理
机器学习Zero5 小时前
自然语言处理(9)—— 共现词矩阵及Python实现
人工智能·python·自然语言处理·nlp
SHIPKING3937 小时前
【专业解读:Semantic Kernel(SK)】大语言模型与传统编程的桥梁
人工智能·语言模型·自然语言处理
__Chuya7 小时前
transformer注意力机制
人工智能·深度学习·transformer
yang_daxia7 小时前
论文阅读VACE: All-in-One Video Creation and Editing
论文阅读·vace
*Lisen7 小时前
《Adaptive Layer-skipping in Pre-trained LLMs》- 论文笔记
论文阅读
CV-杨帆8 小时前
论文阅读:2023 arxiv A Survey of Reinforcement Learning from Human Feedback
论文阅读·人工智能
灏瀚星空9 小时前
用魔法打败魔法:AI教你如何去AI痕迹全方位策略
人工智能·经验分享·笔记·python·自然语言处理·人机交互
0x2119 小时前
[论文阅读]Making Retrieval-Augmented Language Models Robust to Irrelevant Context
论文阅读·人工智能·语言模型