LLM笔记:LayerNorm VS RMSNorm

1 layernorm回顾

机器学习笔记:神经网络层的各种normalization_神经网络normalization-CSDN博客

2 RMSNorm(Root Mean Square Normalization)

LayerNorm 的一种变体,去除了均值计算,只考虑输入向量的平方和

优点

  • 计算更高效,因为省略了均值计算。
  • 更简单的归一化过程,对某些任务来说性能可能会更好。
  • 在大模型(如 GPT)中应用时表现出与 LayerNorm 相当甚至更好的效果。

缺点

  • 不处理均值漂移的问题,可能不适用于输入分布偏移较大的情况。
相关推荐
dblens 数据库管理和开发工具2 分钟前
QueryNote 云端笔记,正式上线
数据库·笔记·querynote·q笔记
2501_9011478312 分钟前
高性能计算笔记:灯泡开关问题的数学优化与常数级解法
笔记·算法·求职招聘
小冷coding23 分钟前
复杂场景下的ERP系统优化策略:让企业管理系统焕发新生
笔记
随意起个昵称26 分钟前
【二分做题笔记】组装玩具
笔记·算法
Lips61126 分钟前
2026.1.13力扣刷题笔记
笔记·算法·leetcode
Silvia_suu1 小时前
修电脑的笔记
笔记
koo3641 小时前
pytorch深度学习笔记16
pytorch·笔记·深度学习
五羟基己醛1 小时前
【硬件工程】电路设计入门笔记基础篇【完成】
笔记·硬件工程
AI视觉网奇1 小时前
ue5.5 动画 选取 一段使用
笔记·学习·ue5
لا معنى له2 小时前
学习笔记:少样本学习
人工智能·笔记·深度学习·学习·机器学习