LLM笔记:LayerNorm VS RMSNorm

1 layernorm回顾

机器学习笔记:神经网络层的各种normalization_神经网络normalization-CSDN博客

2 RMSNorm(Root Mean Square Normalization)

LayerNorm 的一种变体,去除了均值计算,只考虑输入向量的平方和

优点

  • 计算更高效,因为省略了均值计算。
  • 更简单的归一化过程,对某些任务来说性能可能会更好。
  • 在大模型(如 GPT)中应用时表现出与 LayerNorm 相当甚至更好的效果。

缺点

  • 不处理均值漂移的问题,可能不适用于输入分布偏移较大的情况。
相关推荐
张祥6422889043 分钟前
线性代数本质笔记七
笔记·线性代数
丝斯201128 分钟前
AI学习笔记整理(49)——大模型应用开发框架:LangChain
人工智能·笔记·学习
saoys29 分钟前
Opencv 学习笔记:循环读取文件夹中图片并动态展示
笔记·opencv·学习
Charon_super1 小时前
html语法笔记
前端·笔记·html
羊村积极分子懒羊羊1 小时前
2024.11.9上午CSRA笔记
笔记
fanged1 小时前
STM32(3)--时钟/定时中断/ADC(TODO)
笔记
菱玖1 小时前
Linux终端命令提示行变单行
经验分享·笔记
Pith_2 小时前
模式识别与机器学习复习笔记(中)
人工智能·笔记·机器学习
黄美美分享2 小时前
全新升级,小米手机互联服务电脑通用版 V1.1.0.60 新版分享!支持相册/笔记云服务/剪贴板共享!一键同步
笔记·智能手机·电脑
你要飞2 小时前
考研线代第五课:特征值基础与相似对角化
笔记·线性代数·考研·矩阵