LLM笔记:LayerNorm VS RMSNorm

1 layernorm回顾

机器学习笔记:神经网络层的各种normalization_神经网络normalization-CSDN博客

2 RMSNorm(Root Mean Square Normalization)

LayerNorm 的一种变体,去除了均值计算,只考虑输入向量的平方和

优点

  • 计算更高效,因为省略了均值计算。
  • 更简单的归一化过程,对某些任务来说性能可能会更好。
  • 在大模型(如 GPT)中应用时表现出与 LayerNorm 相当甚至更好的效果。

缺点

  • 不处理均值漂移的问题,可能不适用于输入分布偏移较大的情况。
相关推荐
milk_yan26 分钟前
Docker集成onlyoffice实现预览功能
前端·笔记·docker
东京老树根1 小时前
Excel 技巧15 - 在Excel中抠图头像,换背景色(★★)
笔记·学习·excel
Ronin-Lotus2 小时前
嵌入式硬件篇---ADC模拟-数字转换
笔记·stm32·单片机·嵌入式硬件·学习·低代码·模块测试
东京老树根4 小时前
Excel 技巧17 - 如何计算倒计时,并添加该倒计时的数据条(★)
笔记·学习·excel
m0_748240545 小时前
AutoSar架构学习笔记
笔记·学习·架构
siy23337 小时前
[c语言日寄]结构体的使用及其拓展
c语言·开发语言·笔记·学习·算法
雾里看山7 小时前
【MySQL】数据库基础知识
数据库·笔记·mysql·oracle
安和昂7 小时前
effective Objective—C 第三章笔记
java·c语言·笔记
ThisIsClark8 小时前
【gopher的java学习笔记】Java中Mapper与Entity的关系详解
java·笔记·学习