对于深度神经网络,为了使得训练过程更少遇到极小点,应该采用何种权重初始化策略?

在深度神经网络中,权重初始化策略的核心目标是打破对称性、维持信号(前向传播)和梯度(反向传播)的稳定方差,从而避免训练陷入不良的局部极小点(更常见的是鞍点)并加速收敛。以下是为减少陷入不良极小点/鞍点风险而推荐的关键策略:

核心策略:使用基于方差的初始化

  1. Xavier/Glorot 初始化 (适用于 Sigmoid/Tanh 等饱和激活函数)

原理:保持各层激活值(前向传播)和梯度(反向传播)的方差大致相同。

公式:

均匀分布:W ~ Uniform(-√(6/(fan_in + fan_out)), √(6/(fan_in + fan_out)))

正态分布:W ~ Normal(0, √(2/(fan_in + fan_out)))

适用场景:线性激活、Sigmoid、Tanh 等。

  1. He/Kaiming 初始化 (适用于 ReLU 及其变体等非饱和激活函数)

原理:修正 ReLU 的"一半神经元输出为0"的特性,专门保持前向传播中激活值的方差稳定(尤其针对 ReLU 家族)。

公式:

正态分布:W ~ Normal(0, √(2 / fan_in))

均匀分布:W ~ Uniform(-√(6 / fan_in), √(6 / fan_in))

变种:

fan_in 模式(默认):保证前向传播方差稳定(推荐)。

fan_out模式:保证反向传播梯度方差稳定。

适用场景:ReLU、Leaky ReLU、PReLU、ELU 等。

为什么这些策略能减少陷入不良极小点/鞍点的风险?

  1. 打破对称性:

所有初始化方法都使用随机分布(而非全零初始化),确保不同神经元学习不同特征,这是训练成功的先决条件。

  1. 控制梯度方差:

不良初始化(如值过大)→ 梯度爆炸 → 优化不稳定,难以收敛到良好区域。

不良初始化(如值过小)→ 梯度消失 → 梯度趋近于0 → 优化停滞在平坦区域(鞍点或劣质极小点)。

Xavier/He 初始化通过数学推导确保各层梯度的方差可控,显著降低梯度消失/爆炸的概率。

  1. 保持激活值分布合理:

避免激活值过早进入饱和区(如 Sigmoid 两端),导致梯度接近于0("死神经元"),使优化陷入停滞。

其他增强策略

  1. 针对特定激活函数的初始化:

Leaky ReLU/PReLU:使用 He 初始化,并在公式中考虑负斜率(如 √(2 / (1 + a²)) / √fan_in,`a` 为负斜率)。

SELU:需要配合 LeCun 初始化(W ~ Normal(0, √(1 / fan_in)))和 α-dropout 才能保证自归一化。

  1. 正交初始化 (Orthogonal Initialization):

生成正交矩阵 (W^T W = I)。

优势:理论上能保持梯度范数,缓解梯度消失/爆炸。

适用场景:RNN、LSTM 等序列模型效果显著。

  1. 稀疏初始化 (Sparse Initialization):

将大部分权重初始化为0,小部分随机初始化(打破对称性)。

目的:模拟生物神经网络的稀疏性,可能带来正则化效果。

实践:通常不如 Xavier/He 高效。

应避免的初始化方法

  1. 全零初始化:

导致所有神经元学习相同的特征 → 网络退化,完全失去表达能力。

  1. 过大/过小的常数初始化:

过大 → 梯度爆炸、激活值饱和。

过小 → 梯度消失、激活信号过弱。

  1. 普通正态/均匀分布(未校准方差):

如 Normal(0, 1) 或 Uniform(-1, 1),方差未与 `fan_in`/`fan_out` 关联 → 极易梯度消失/爆炸。

实践建议:

  1. 默认首选 He 初始化(尤其对 CNN 和 MLP),因其对 ReLU 的普适性。

  2. 使用深度学习框架提供的初始化函数(如 PyTorch 的 `kaiming_normal_()`、TensorFlow 的 `glorot_uniform_`)。

  3. 结合 Batch Normalization 可降低对初始化的敏感度,但二者协同使用效果更佳(BN 不能完全替代良好初始化)。

良好的初始化本质是为优化算法(如 SGD、Adam)提供一个梯度稳定、方向多样的起点,极大降低了陷入平坦区域(鞍点或劣质极小点)的概率,使网络能高效收敛到更优解。

相关推荐
在钱塘江3 分钟前
LangGraph构建Ai智能体-11-高级RAG之Self-RAG
人工智能·python
爱吃猪排19 分钟前
基于 Paddle Inference 3.0 的高性能 OCR 服务实现
人工智能·命令行
小阿鑫32 分钟前
MCP神器!MCP-USE 一键部署连接任何MCP服务器
服务器·人工智能·aigc·部署·ai落地·mcp·mcpserver·部署mcpserver·部署mcp
xw337340956443 分钟前
《卷积神经网络(CNN):解锁视觉与多模态任务的深度学习核心》
人工智能·pytorch·深度学习·神经网络·cnn
极客BIM工作室1 小时前
机器学习阶段性总结:对深度学习本质的回顾 20250813
人工智能·深度学习·机器学习
程序员海军1 小时前
MCP神器!MCP-USE 一键部署连接任何MCP服务器
人工智能·aigc·mcp
Python测试之道1 小时前
利用生成式AI与大语言模型(LLM)革新自动化软件测试 —— 测试工程师必读深度解析
人工智能·语言模型·自动化
Christo31 小时前
ECCV-2018《Variational Wasserstein Clustering》
人工智能·机器学习·支持向量机
victory04311 小时前
音频重采样使用RandomOverSampler 还是 SMOTE
人工智能·深度学习·机器学习
飞翔的佩奇1 小时前
【完整源码+数据集+部署教程】武器目标检测系统源码和数据集:改进yolo11-AggregatedAtt
人工智能·python·yolo·目标检测·计算机视觉·数据集·yolo11