LLM笔记:LayerNorm VS RMSNorm

1 layernorm回顾

机器学习笔记:神经网络层的各种normalization_神经网络normalization-CSDN博客

2 RMSNorm(Root Mean Square Normalization)

LayerNorm 的一种变体,去除了均值计算,只考虑输入向量的平方和

优点

  • 计算更高效,因为省略了均值计算。
  • 更简单的归一化过程,对某些任务来说性能可能会更好。
  • 在大模型(如 GPT)中应用时表现出与 LayerNorm 相当甚至更好的效果。

缺点

  • 不处理均值漂移的问题,可能不适用于输入分布偏移较大的情况。
相关推荐
左左右右左右摇晃9 分钟前
红黑树笔记整理
笔记
不想看见4042 小时前
Reverse Bits位运算基础问题--力扣101算法题解笔记
笔记·算法·leetcode
observe1012 小时前
在线商城项目笔记 3.11
笔记
QD_ANJING3 小时前
3月面大厂前端岗总结笔记(含答案)
前端·javascript·笔记·面试·职场和发展·前端框架·pdf
九成宫3 小时前
计算机网络期末复习——第5章:链路层 Part Two
网络·笔记·计算机网络·软件工程
愚昧之山绝望之谷开悟之坡4 小时前
什么是nacos
笔记
hy15687865 小时前
MDL (Multi-Scenario Denoising Learning) 笔记
笔记
困死,根本不会5 小时前
蓝桥杯python备赛笔记之(八)动态规划(DP)
笔记·python·学习·算法·蓝桥杯·动态规划
ByNotD0g5 小时前
Doris 学习笔记
android·笔记·学习
困死,根本不会5 小时前
Qt Designer 基础操作学习笔记
开发语言·笔记·qt·学习·microsoft