LLM笔记:LayerNorm VS RMSNorm

1 layernorm回顾

机器学习笔记:神经网络层的各种normalization_神经网络normalization-CSDN博客

2 RMSNorm(Root Mean Square Normalization)

LayerNorm 的一种变体,去除了均值计算,只考虑输入向量的平方和

优点

  • 计算更高效,因为省略了均值计算。
  • 更简单的归一化过程,对某些任务来说性能可能会更好。
  • 在大模型(如 GPT)中应用时表现出与 LayerNorm 相当甚至更好的效果。

缺点

  • 不处理均值漂移的问题,可能不适用于输入分布偏移较大的情况。
相关推荐
强子感冒了1 小时前
JavaScript 零基础入门笔记:核心概念与语法详解
开发语言·javascript·笔记
马猴烧酒.1 小时前
【面试八股|RabbitMQ】RabbitMQ常见面试题详解笔记
笔记·面试·rabbitmq
智者知已应修善业2 小时前
【项目配置时间选择自己还是团体】2025-3-31
c语言·c++·经验分享·笔记·算法
24白菜头2 小时前
2026-2-9:LeetCode每日一题(动态规划专项)
数据结构·笔记·学习·算法·leetcode
今天你TLE了吗2 小时前
JVM学习笔记:第三章——运行时数据区(部分)
jvm·笔记·学习
CHANG_THE_WORLD2 小时前
深入指针4 - 学习笔记整理
笔记·学习·算法
日更嵌入式的打工仔2 小时前
LAN9253中文注释第八章
笔记·原文翻译
强子感冒了4 小时前
JavaScript学习笔记:函数、方法与继承(原型与class)
javascript·笔记·学习
寒秋花开曾相惜5 小时前
(学习笔记)第2章 信息的表示和处理
笔记·学习
curry____3035 小时前
c++位运算符笔记
java·c++·笔记