LLM笔记:LayerNorm VS RMSNorm

1 layernorm回顾

机器学习笔记:神经网络层的各种normalization_神经网络normalization-CSDN博客

2 RMSNorm(Root Mean Square Normalization)

LayerNorm 的一种变体,去除了均值计算,只考虑输入向量的平方和

优点

  • 计算更高效,因为省略了均值计算。
  • 更简单的归一化过程,对某些任务来说性能可能会更好。
  • 在大模型(如 GPT)中应用时表现出与 LayerNorm 相当甚至更好的效果。

缺点

  • 不处理均值漂移的问题,可能不适用于输入分布偏移较大的情况。
相关推荐
思成不止于此4 小时前
MySQL 查询实战(三):排序与综合练习
数据库·笔记·学习·mysql
深海潜水员4 小时前
OpenGL 学习笔记 第一章:绘制一个窗口
c++·笔记·学习·图形渲染·opengl
摇滚侠5 小时前
ElasticSearch 教程入门到精通,文档创建查询修改删除,笔记10、11、12
笔记·elasticsearch
崇山峻岭之间6 小时前
C++ Prime Plus 学习笔记026
c++·笔记·学习
liteblue8 小时前
DEB包解包与打包笔记
linux·笔记
崇山峻岭之间9 小时前
C++ Prime Plus 学习笔记027
c++·笔记·学习
IMPYLH9 小时前
Lua 的 tonumber 函数
开发语言·笔记·后端·junit·游戏引擎·lua
Xudde.9 小时前
BabyPass靶机渗透
笔记·学习·安全·web安全
风123456789~9 小时前
【健康管理学】第10章 中医养生学 1/2
笔记·健康管理
hit56实验室10 小时前
罗计物流为什么会失败
笔记