对于深度神经网络,为了使得训练过程更少遇到极小点,应该采用何种权重初始化策略?

在深度神经网络中,权重初始化策略的核心目标是打破对称性、维持信号(前向传播)和梯度(反向传播)的稳定方差,从而避免训练陷入不良的局部极小点(更常见的是鞍点)并加速收敛。以下是为减少陷入不良极小点/鞍点风险而推荐的关键策略:

核心策略:使用基于方差的初始化

  1. Xavier/Glorot 初始化 (适用于 Sigmoid/Tanh 等饱和激活函数)

原理:保持各层激活值(前向传播)和梯度(反向传播)的方差大致相同。

公式:

均匀分布:W ~ Uniform(-√(6/(fan_in + fan_out)), √(6/(fan_in + fan_out)))

正态分布:W ~ Normal(0, √(2/(fan_in + fan_out)))

适用场景:线性激活、Sigmoid、Tanh 等。

  1. He/Kaiming 初始化 (适用于 ReLU 及其变体等非饱和激活函数)

原理:修正 ReLU 的"一半神经元输出为0"的特性,专门保持前向传播中激活值的方差稳定(尤其针对 ReLU 家族)。

公式:

正态分布:W ~ Normal(0, √(2 / fan_in))

均匀分布:W ~ Uniform(-√(6 / fan_in), √(6 / fan_in))

变种:

fan_in 模式(默认):保证前向传播方差稳定(推荐)。

fan_out模式:保证反向传播梯度方差稳定。

适用场景:ReLU、Leaky ReLU、PReLU、ELU 等。

为什么这些策略能减少陷入不良极小点/鞍点的风险?

  1. 打破对称性:

所有初始化方法都使用随机分布(而非全零初始化),确保不同神经元学习不同特征,这是训练成功的先决条件。

  1. 控制梯度方差:

不良初始化(如值过大)→ 梯度爆炸 → 优化不稳定,难以收敛到良好区域。

不良初始化(如值过小)→ 梯度消失 → 梯度趋近于0 → 优化停滞在平坦区域(鞍点或劣质极小点)。

Xavier/He 初始化通过数学推导确保各层梯度的方差可控,显著降低梯度消失/爆炸的概率。

  1. 保持激活值分布合理:

避免激活值过早进入饱和区(如 Sigmoid 两端),导致梯度接近于0("死神经元"),使优化陷入停滞。

其他增强策略

  1. 针对特定激活函数的初始化:

Leaky ReLU/PReLU:使用 He 初始化,并在公式中考虑负斜率(如 √(2 / (1 + a²)) / √fan_in,`a` 为负斜率)。

SELU:需要配合 LeCun 初始化(W ~ Normal(0, √(1 / fan_in)))和 α-dropout 才能保证自归一化。

  1. 正交初始化 (Orthogonal Initialization):

生成正交矩阵 (W^T W = I)。

优势:理论上能保持梯度范数,缓解梯度消失/爆炸。

适用场景:RNN、LSTM 等序列模型效果显著。

  1. 稀疏初始化 (Sparse Initialization):

将大部分权重初始化为0,小部分随机初始化(打破对称性)。

目的:模拟生物神经网络的稀疏性,可能带来正则化效果。

实践:通常不如 Xavier/He 高效。

应避免的初始化方法

  1. 全零初始化:

导致所有神经元学习相同的特征 → 网络退化,完全失去表达能力。

  1. 过大/过小的常数初始化:

过大 → 梯度爆炸、激活值饱和。

过小 → 梯度消失、激活信号过弱。

  1. 普通正态/均匀分布(未校准方差):

如 Normal(0, 1) 或 Uniform(-1, 1),方差未与 `fan_in`/`fan_out` 关联 → 极易梯度消失/爆炸。

实践建议:

  1. 默认首选 He 初始化(尤其对 CNN 和 MLP),因其对 ReLU 的普适性。

  2. 使用深度学习框架提供的初始化函数(如 PyTorch 的 `kaiming_normal_()`、TensorFlow 的 `glorot_uniform_`)。

  3. 结合 Batch Normalization 可降低对初始化的敏感度,但二者协同使用效果更佳(BN 不能完全替代良好初始化)。

良好的初始化本质是为优化算法(如 SGD、Adam)提供一个梯度稳定、方向多样的起点,极大降低了陷入平坦区域(鞍点或劣质极小点)的概率,使网络能高效收敛到更优解。

相关推荐
桜吹雪1 分钟前
LangChain.js/DeepAgents可观测性
javascript·人工智能
&&Citrus2 分钟前
【杂谈】SNNU公共计算平台:深度学习服务器配置与远程开发指北
服务器·人工智能·vscode·深度学习·snnu
乌恩大侠3 分钟前
Spark 机器上修改缓冲区大小
人工智能·usrp
STLearner4 分钟前
AI论文速读 | U-Cast:学习高维时间序列预测的层次结构
大数据·论文阅读·人工智能·深度学习·学习·机器学习·数据挖掘
数字化顾问7 分钟前
(65页PPT)大型集团物料主数据管理系统建设规划方案(附下载方式)
大数据·运维·人工智能
新知图书1 小时前
FastGPT版本体系概览
人工智能·ai agent·智能体·大模型应用开发·大模型应用
老蒋新思维1 小时前
创客匠人 2025 全球创始人 IP+AI 万人高峰论坛:AI 赋能下知识变现与 IP 变现的实践沉淀与行业启示
大数据·人工智能·网络协议·tcp/ip·重构·创始人ip·创客匠人
Keep_Trying_Go2 小时前
基于Zero-Shot的目标计数算法详解(Open-world Text-specified Object Counting)
人工智能·pytorch·python·算法·多模态·目标统计
AKAMAI2 小时前
Akamai 宣布收购功能即服务公司 Fermyon
人工智能·云计算