LLM笔记:LayerNorm VS RMSNorm

1 layernorm回顾

机器学习笔记:神经网络层的各种normalization_神经网络normalization-CSDN博客

2 RMSNorm(Root Mean Square Normalization)

LayerNorm 的一种变体,去除了均值计算,只考虑输入向量的平方和

优点

  • 计算更高效,因为省略了均值计算。
  • 更简单的归一化过程,对某些任务来说性能可能会更好。
  • 在大模型(如 GPT)中应用时表现出与 LayerNorm 相当甚至更好的效果。

缺点

  • 不处理均值漂移的问题,可能不适用于输入分布偏移较大的情况。
相关推荐
宵时待雨13 分钟前
优选算法专题2:滑动窗口
数据结构·c++·笔记·算法
YuanDaima204819 分钟前
矩阵基础原理与题目说明
人工智能·笔记·python·学习·线性代数·矩阵
南宫萧幕19 分钟前
奈奎斯特判据 + MATLAB建模实现 + 车辆纵向动力学 详细推导笔记
笔记·matlab·simulink
一只大袋鼠39 分钟前
JDBC 详细笔记:从基础 API 到 SQL 注入解决
数据库·笔记·sql·mysql
羊群智妍1 小时前
2026 AI搜索优化监测工具:免费GEO工具实测对比
笔记
Oll Correct1 小时前
实验十八:验证路由信息协议RIPv1
网络·笔记
鱼鳞_1 小时前
Java学习笔记_Day33(高级流)
java·笔记·学习
Engineer邓祥浩1 小时前
JVM学习笔记(11) 第四部分 程序编译与代码优化 第10章 前端编译与优化
jvm·笔记·学习
大大杰哥1 小时前
力扣hot100笔记(1)
笔记·leetcode
雾岛听蓝2 小时前
Qt按钮与标签控件详解
开发语言·经验分享·笔记·qt