LLM笔记:LayerNorm VS RMSNorm

1 layernorm回顾

机器学习笔记:神经网络层的各种normalization_神经网络normalization-CSDN博客

2 RMSNorm(Root Mean Square Normalization)

LayerNorm 的一种变体,去除了均值计算,只考虑输入向量的平方和

优点

  • 计算更高效,因为省略了均值计算。
  • 更简单的归一化过程,对某些任务来说性能可能会更好。
  • 在大模型(如 GPT)中应用时表现出与 LayerNorm 相当甚至更好的效果。

缺点

  • 不处理均值漂移的问题,可能不适用于输入分布偏移较大的情况。
相关推荐
像豆芽一样优秀38 分钟前
Easy-Vibe Task03学习笔记
笔记·学习
Rsingstarzengjx40 分钟前
【Photoshop从入门到精通】 A17 修饰修复 笔记
笔记
EmbedLinX1 小时前
嵌入式Linux根文件系统制作与移植
linux·服务器·笔记·学习
强子感冒了2 小时前
Javascript学习笔记:BOM和DOM
javascript·笔记·学习
2501_901147833 小时前
学习笔记|LeetCode 739 每日温度:从暴力枚举到单调栈线性最优解
笔记·学习·leetcode
爱编程的Zion3 小时前
小白AI学习笔记---第一章,如何正确使用
人工智能·笔记·学习
Rsingstarzengjx3 小时前
【Photoshop从入门到精通】 A18 填充 笔记
笔记
2501_901147834 小时前
DDP(分布式训练)核心知识点学习笔记
笔记·分布式·学习·面试
玩具猴_wjh5 小时前
多维度筛选 + 分页优化
笔记·学习
远离UE45 小时前
快速傅里叶变换学习笔记(FFT)
笔记·学习