LLM笔记:LayerNorm VS RMSNorm

1 layernorm回顾

机器学习笔记:神经网络层的各种normalization_神经网络normalization-CSDN博客

2 RMSNorm(Root Mean Square Normalization)

LayerNorm 的一种变体,去除了均值计算,只考虑输入向量的平方和

优点

  • 计算更高效,因为省略了均值计算。
  • 更简单的归一化过程,对某些任务来说性能可能会更好。
  • 在大模型(如 GPT)中应用时表现出与 LayerNorm 相当甚至更好的效果。

缺点

  • 不处理均值漂移的问题,可能不适用于输入分布偏移较大的情况。
相关推荐
峰顶听歌的鲸鱼3 小时前
Kubernetes介绍和部署
运维·笔记·云原生·容器·kubernetes·学习方法
魔芋红茶5 小时前
Spring Security 学习笔记 2:架构
笔记·学习·spring
Lips6115 小时前
2026.1.20力扣刷题笔记
笔记·算法·leetcode
Hammer_Hans6 小时前
DFT笔记20
笔记
jane_xing7 小时前
【Hello-Agents】学习笔记(一)
笔记·ai agent
zhangrelay10 小时前
ROS云课三分钟-cmake默认版本和升级-260120
笔记·学习
lkbhua莱克瓦2410 小时前
JavaScript核心语法
开发语言·前端·javascript·笔记·html·ecmascript·javaweb
SmartBrain10 小时前
Agent 知识总结
服务器·数据库·笔记
杨浦老苏11 小时前
离线优先的自托管笔记应用Anchor
笔记·docker·群晖
CryptoPP11 小时前
主流国际股票行情API接口横向对比:如何选择适合你的数据源?
大数据·笔记·金融·区块链