LLM笔记:LayerNorm VS RMSNorm

1 layernorm回顾

机器学习笔记:神经网络层的各种normalization_神经网络normalization-CSDN博客

2 RMSNorm(Root Mean Square Normalization)

LayerNorm 的一种变体,去除了均值计算,只考虑输入向量的平方和

优点

  • 计算更高效,因为省略了均值计算。
  • 更简单的归一化过程,对某些任务来说性能可能会更好。
  • 在大模型(如 GPT)中应用时表现出与 LayerNorm 相当甚至更好的效果。

缺点

  • 不处理均值漂移的问题,可能不适用于输入分布偏移较大的情况。
相关推荐
生擒小朵拉3 小时前
ROS1学习笔记(二)
笔记·学习
Root_Hacker3 小时前
include文件包含个人笔记及c底层调试
android·linux·服务器·c语言·笔记·安全·php
burning_maple7 小时前
redis笔记
数据库·redis·笔记
魔芋红茶7 小时前
Spring Security 学习笔记 4:用户/密码认证
笔记·学习·spring
googleccsdn7 小时前
ENSP Pro Lab笔记:配置BGP VXLAN双栈(3)
网络·笔记
爱宁~8 小时前
UnityShader学习笔记[二百九十九]UGUI中的Mask遮罩半透明Shader
笔记·学习
June bug10 小时前
【实习笔记】客户端基础技术
笔记·macos·cocoa
laplace012310 小时前
第八章 agent记忆与检索 下
数据库·人工智能·笔记·agent·rag
狐5710 小时前
2026-01-19-牛客每日一题-阅读理解
笔记·算法·牛客
不会代码的小猴10 小时前
Linux环境编程第一天笔记
linux·笔记