LLM笔记:LayerNorm VS RMSNorm

1 layernorm回顾

机器学习笔记:神经网络层的各种normalization_神经网络normalization-CSDN博客

2 RMSNorm(Root Mean Square Normalization)

LayerNorm 的一种变体,去除了均值计算,只考虑输入向量的平方和

优点

  • 计算更高效,因为省略了均值计算。
  • 更简单的归一化过程,对某些任务来说性能可能会更好。
  • 在大模型(如 GPT)中应用时表现出与 LayerNorm 相当甚至更好的效果。

缺点

  • 不处理均值漂移的问题,可能不适用于输入分布偏移较大的情况。
相关推荐
南境十里·墨染春水4 小时前
C++传记(面向对象)虚析构函数 纯虚函数 抽象类 final、override关键字
开发语言·c++·笔记·算法
中屹指纹浏览器6 小时前
2026基于内核隔离的浏览器环境虚拟化技术在企业数字化运营中的应用研究
经验分享·笔记
一轮弯弯的明月7 小时前
Python基础-速通秘籍(下)
开发语言·笔记·python·学习
nqqcat~10 小时前
shell入门
笔记
Aaswk10 小时前
刷题笔记(回溯算法)
数据结构·c++·笔记·算法·leetcode·深度优先·剪枝
-许平安-11 小时前
MCP项目笔记六(PluginsLoader)
c++·笔记·raii·plugin system
开源盛世!!12 小时前
3.26-3.27学习笔记
笔记·学习
智者知已应修善业12 小时前
【文氏电桥振荡电路】2022-8-25
驱动开发·经验分享·笔记·硬件架构·硬件工程
小趴菜_自动驾驶搬砖人12 小时前
数据校验学习笔记 ———— 模逆运算
笔记
大连好光景12 小时前
软件测试笔记(1)
笔记·功能测试·测试工具