LLM笔记:LayerNorm VS RMSNorm

1 layernorm回顾

机器学习笔记:神经网络层的各种normalization_神经网络normalization-CSDN博客

2 RMSNorm(Root Mean Square Normalization)

LayerNorm 的一种变体,去除了均值计算,只考虑输入向量的平方和

优点

  • 计算更高效,因为省略了均值计算。
  • 更简单的归一化过程,对某些任务来说性能可能会更好。
  • 在大模型(如 GPT)中应用时表现出与 LayerNorm 相当甚至更好的效果。

缺点

  • 不处理均值漂移的问题,可能不适用于输入分布偏移较大的情况。
相关推荐
сокол2 分钟前
【网安-等保评测-基础记录】网络安全等级保护2.0 详解(定级、备案、测评、整改一站式指南)
网络·笔记·网络安全·云计算
qeen872 小时前
【算法笔记】模拟与高精度加减乘除
c++·笔记·算法·高精度·模拟
U盘失踪了3 小时前
什么是B/S 架构和 C/S 架构
笔记
像一只黄油飞3 小时前
第二章-02-注释
笔记·python·学习·零基础
xiebingsuccess3 小时前
ThingsPanel IoT Platform 学习笔记
笔记·学习
是上好佳佳佳呀3 小时前
【前端(七)】CSS3 核心属性笔记:单位、背景、盒子模型与文本换行
前端·笔记·css3
雾岛听蓝4 小时前
Qt 输入与多元素控件详解
开发语言·经验分享·笔记·qt
cwplh5 小时前
平衡树学习笔记
数据结构·笔记·学习·算法
EllinY5 小时前
扩展欧几里得算法 exgcd 详解
c++·笔记·数学·算法·exgcd
像一只黄油飞5 小时前
第二章-01-字面量
笔记·python·学习·零基础