LLM笔记:LayerNorm VS RMSNorm

1 layernorm回顾

机器学习笔记:神经网络层的各种normalization_神经网络normalization-CSDN博客

2 RMSNorm(Root Mean Square Normalization)

LayerNorm 的一种变体,去除了均值计算,只考虑输入向量的平方和

优点

  • 计算更高效,因为省略了均值计算。
  • 更简单的归一化过程,对某些任务来说性能可能会更好。
  • 在大模型(如 GPT)中应用时表现出与 LayerNorm 相当甚至更好的效果。

缺点

  • 不处理均值漂移的问题,可能不适用于输入分布偏移较大的情况。
相关推荐
喝醉酒的小白26 分钟前
Elasticsearch 故障分析笔记:Pending Tasks 堆积与 Alias 风暴
笔记·elasticsearch
Cathy Bryant35 分钟前
微分几何:曲面与坐标系
笔记·矩阵·高等数学·物理学·微分几何
中屹指纹浏览器1 小时前
2026浏览器指纹追踪的合规边界与隐私优先的反检测技术落地框架
经验分享·笔记
阿Y加油吧1 小时前
算法实战笔记:LeetCode 31 下一个排列 & 287 寻找重复数
笔记·算法·leetcode
就叫飞六吧1 小时前
基于googleshell下载文件/资源
笔记
lwf0061641 小时前
逻辑回归学习笔记-数学直接解回归方程
笔记·学习·逻辑回归
xuhaoyu_cpp_java3 小时前
MyBatis学习(二)
java·经验分享·笔记·学习·mybatis
我登哥MVP3 小时前
【SpringMVC笔记】 - 11 - SpringMVC 执行流程
java·spring boot·笔记·spring·tomcat·intellij-idea
道长爱睡懒觉3 小时前
蓝牙,导航,仪表,TBOX,OTA
笔记
Cathy Bryant4 小时前
微分几何:度规和高斯曲率
笔记·高等数学·物理·微分几何