LLM笔记:LayerNorm VS RMSNorm

1 layernorm回顾

机器学习笔记:神经网络层的各种normalization_神经网络normalization-CSDN博客

2 RMSNorm(Root Mean Square Normalization)

LayerNorm 的一种变体,去除了均值计算,只考虑输入向量的平方和

优点

  • 计算更高效,因为省略了均值计算。
  • 更简单的归一化过程,对某些任务来说性能可能会更好。
  • 在大模型(如 GPT)中应用时表现出与 LayerNorm 相当甚至更好的效果。

缺点

  • 不处理均值漂移的问题,可能不适用于输入分布偏移较大的情况。
相关推荐
Sarvartha1 小时前
LangChain 入门核心知识学习笔记
笔记·学习·langchain
QZ_orz_freedom1 小时前
后端学习笔记-苍穹外卖
笔记·学习
Lips6114 小时前
2026.1.25力扣刷题笔记
笔记·算法·leetcode
WK100%4 小时前
二叉树经典OJ题
c语言·数据结构·经验分享·笔记·链表
googleccsdn5 小时前
ENSP Pro LAB笔记:配置M-LAG双归接入三层网络(V-STP + Monitor Link + OSPF)
网络·笔记·网络协议
Hello_Embed6 小时前
USB 虚拟串口源码改造与 FreeRTOS 适配
笔记·单片机·嵌入式·freertos·usb
曦月逸霜6 小时前
深入理解计算机系统——学习笔记(持续更新~)
笔记·学习·计算机系统
koo3646 小时前
pytorch深度学习笔记18
pytorch·笔记·深度学习
hetao17338376 小时前
2026-01-22~23 hetao1733837 的刷题笔记
c++·笔记·算法
curry____3036 小时前
数据结构学习笔记
数据结构·笔记·学习