LLM笔记:LayerNorm VS RMSNorm

1 layernorm回顾

机器学习笔记:神经网络层的各种normalization_神经网络normalization-CSDN博客

2 RMSNorm(Root Mean Square Normalization)

LayerNorm 的一种变体,去除了均值计算,只考虑输入向量的平方和

优点

  • 计算更高效,因为省略了均值计算。
  • 更简单的归一化过程,对某些任务来说性能可能会更好。
  • 在大模型(如 GPT)中应用时表现出与 LayerNorm 相当甚至更好的效果。

缺点

  • 不处理均值漂移的问题,可能不适用于输入分布偏移较大的情况。
相关推荐
StickToForever几秒前
第4章 信息系统架构(五)
经验分享·笔记·学习·职场和发展
敲敲敲-敲代码3 小时前
【SQL实验】触发器
数据库·笔记·sql
Moonnnn.4 小时前
51单片机学习——动态数码管显示
笔记·嵌入式硬件·学习·51单片机
电棍2337 小时前
verilog笔记
笔记·fpga开发
让我安静会7 小时前
Obsidian·Copilot 插件配置(让AI根据Obsidian笔记内容进行对话)
人工智能·笔记·copilot
世事如云有卷舒8 小时前
FreeRTOS学习笔记
笔记·学习
羊小猪~~10 小时前
MYSQL学习笔记(九):MYSQL表的“增删改查”
数据库·笔记·后端·sql·学习·mysql·考研
yuanbenshidiaos11 小时前
【数据挖掘】数据仓库
数据仓库·笔记·数据挖掘
sealaugh3212 小时前
aws(学习笔记第二十九课) aws cloudfront hands on
笔记·学习·aws
FakeOccupational13 小时前
【计算社会学】 多智能体建模 ABM Agent Based Modeling 笔记
笔记