两种神经网络参数初始化方法

重点介绍一下Xavier和Kaiming初始化:

Xavier

为了使得网络中信息更好的流动,每一层输出的方差应该尽量相等。

正态分布参数初始化

N ( 0 , 2 n in + n out ) \mathcal{N}\left(0, \frac{2}{n_{\text {in }}+n_{\text {out }}}\right) N(0,nin +nout 2)

均匀分布参数初始化

U ( − 6 n in + n out , 6 n in + n out ) \mathcal{U}\left(-\sqrt{\frac{6}{n_{\text {in }}+n_{\text {out }}}}, \sqrt{\frac{6}{n_{\text {in }}+n_{\text {out }}}}\right) U(−nin +nout 6 ,nin +nout 6 )

Kaiming

Xavier初始化的问题在于,它只适用于线性激活函数,但实际上,对于深层神经网络来说,线性激活函数是没有价值,神经网络需要非线性激活函数(例如ReLU)来构建复杂网络。

前向传播时每层的方差都是1
反向传播时梯度的方差都是1

正态分布参数初始化

N ( 0 , 2 n in ) \mathcal{N}\left(0, \frac{2}{n_{\text {in }}}\right) N(0,nin 2)

均匀分布参数初始化

U ( − 6 n in , 6 n in ) \mathcal{U}\left(-\sqrt{\frac{6}{n_{\text {in }}}}, \sqrt{\frac{6}{n_{\text {in }}}}\right) U(−nin 6 ,nin 6 )

n i n n_{in} nin表示每层输入的神经元数量


参考

相关推荐
呆萌很11 天前
卷积神经网络的基石——基础卷积模块
神经网络
海天一色y11 天前
粒子群算法(PSO)优化BP神经网络:从原理到实战
人工智能·深度学习·神经网络
有梦想的攻城狮11 天前
卷积神经网络(CNN)详解
人工智能·神经网络·cnn·卷积神经网络
LaughingZhu11 天前
Product Hunt 每日热榜 | 2026-02-25
数据库·人工智能·经验分享·神经网络·chatgpt
wearegogog12311 天前
基于神经网络、强化学习、模糊逻辑和小波相结合的混合方法控制欠驱动系统
人工智能·深度学习·神经网络
yunhuibin12 天前
GoogLeNet学习
人工智能·python·深度学习·神经网络·学习
生成论实验室12 天前
即事经智能:一种基于生成易算的通用智能新范式(书)
人工智能·神经网络·算法·架构·信息与通信
Alsian12 天前
Day32 神经网络
人工智能·深度学习·神经网络
梦帮科技12 天前
【DREAMVFIA开源】量子互联网协议:节点通信与路由算法
人工智能·神经网络·算法·生成对抗网络·开源·量子计算
Dev7z13 天前
原创论文:基于LSTM神经网络的金属材料机器学习本构模型研究
神经网络·机器学习·lstm