神经网络的初始化方式都有哪些?

一、概念

神经网络的初始化是深度学习中的一个关键步骤,它指的是在训练开始前为神经网络的权重和偏置设置初始值。合适的初始化方法可以加速模型的收敛,提高训练效果,甚至影响模型的最终性能。当然,目前我们使用Torch、TensorFlow等深度学习库进行建模的过程中,这些第三方库已经默认为我们选择了初始化的方式来设置神经网络的权重和偏置(不同神经网络有不同的默认方法),从而使得很多人往往都会忽略初始化竟然还能玩花样。

二、类型

1、随机初始化

随机初始化是神经网络中常用的一种权重初始化方法,其基本思想是在训练开始前为网络的权重和偏置赋予随机值。随机初始化有助于打破网络的对称性,使得不同的神经元可以学习不同的特征,从而避免神经元之间冗余。随机初始化方法一般是从某个概率分布中随机抽取权重值,常见的分布有:

  • 均匀分布(Uniform Distribution):权重从一个均匀分布中随机抽取,通常范围是[−a,a],其中 a 是一个较小的正数,可以根据网络的具体需求来设置。
  • 正态分布(Normal Distribution):权重从一个正态分布(高斯分布)中随机抽取,均值为0,标准差为 σ,而标准差控制了权重值的分散程度。
python 复制代码
import torch
import torch.nn as nn

# 定义一个简单的神经网络
class SimpleNet(nn.Module):
    def __init__(self):
        super(SimpleNet, self).__init__()
        self.fc1 = nn.Linear(10, 50)
        self.fc2 = nn.Linear(50, 1)

# 初始化网络
net = SimpleNet()

# 应用随机初始化
def init_weights(m):
    if type(m) == nn.Linear:
        # 均匀分布初始化
        nn.init.uniform_(m.weight, -0.1, 0.1)
        # 正态分布初始化
        # nn.init.normal_(m.weight, mean=0.0, std=0.01)
        # 初始化偏置为0
        nn.init.zeros_(m.bias)

# 遍历网络中的所有模块并应用初始化
net.apply(init_weights)

2、Xaiver初始化

Xavier初始化,也称为Glorot初始化,由Xavier Glorot提出,目的是解决在深度神经网络中随机初始化可能导致的梯度消失或梯度爆炸问题 。Xavier初始化的基本思想是保持每一层输出的方差与输入的方差一致,以防止信号在深度网络中的传播过程中出现衰减或放大。

Xavier初始化考虑了前一层的节点数()和当前层的节点数()。权重的初始化范围是,这个范围确保了权重既不会太小也不会太大,从而避免了梯度消失或爆炸的问题。这个公式是基于保持激活值方差的稳定性来推导的,使得每层的输出值(激活值)保持高斯分布。尽管Xavier初始化在很多情况下都非常有效,但它假设激活函数是线性的(因此更适合sigmoid或者tanh之类的激活函数),这在实际中并不总是成立。例如,在ReLU激活函数的网络中,Xavier初始化可能不是最优的选择,因此出现了He初始化作为替代。

python 复制代码
import torch
import torch.nn as nn
import torch.nn.init as init

# 定义一个简单的神经网络
class SimpleNet(nn.Module):
    def __init__(self):
        super(SimpleNet, self).__init__()
        self.fc1 = nn.Linear(10, 50)  # 输入层到隐藏层
        self.fc2 = nn.Linear(50, 1)  # 隐藏层到输出层

    def forward(self, x):
        x = torch.relu(self.fc1(x))
        x = self.fc2(x)
        return x

# 初始化网络
net = SimpleNet()

# 使用Xavier均匀分布初始化
init.xavier_uniform_(net.fc1.weight)
init.xavier_uniform_(net.fc2.weight)

# 或者使用Xavier正态分布初始化
init.xavier_normal_(net.fc1.weight)
init.xavier_normal_(net.fc2.weight)

# 打印初始化后的权重
print(net.fc1.weight)
print(net.fc2.weight)

3、He初始化

He初始化(也称为Kaiming初始化,由何凯明提出)是一种专门为ReLU激活函数设计的权重初始化方法。**He初始化的目的是为了解决在使用ReLU激活函数的深度神经网络中出现的梯度消失或爆炸问题。**它通过合理设置权重的初始值,使得在网络的前向传播和反向传播过程中,激活值和梯度的方差保持相对稳定。

He初始化基于以下原理:在ReLU激活函数下,权重应该按照均值为0的正态分布进行初始化,其标准差为​​,其中是前一层的节点数。这样做的目的是为了保持每层激活值的方差大致相同,从而避免梯度消失或爆炸。

python 复制代码
import torch
import torch.nn as nn
import torch.nn.init as init

class SimpleNet(nn.Module):
    def __init__(self):
        super(SimpleNet, self).__init__()
        self.fc1 = nn.Linear(10, 50)  # 输入层到隐藏层
        self.fc2 = nn.Linear(50, 1)  # 隐藏层到输出层

    def forward(self, x):
        x = torch.relu(self.fc1(x))
        x = self.fc2(x)
        return x

# 初始化网络
net = SimpleNet()

# 使用He初始化
init.kaiming_normal_(net.fc1.weight, mode='fan_in', nonlinearity='relu')
init.kaiming_normal_(net.fc2.weight, mode='fan_in', nonlinearity='relu')

# 打印初始化后的权重
print(net.fc1.weight)
print(net.fc2.weight)

4、正交初始化

正交初始化(Orthogonal Initialization)核心目标是使权重矩阵正交化。**这种方法通过确保权重矩阵的每一列变成单位向量,并且每个列向量与其他列向量垂直,**从而减少神经网络中的冗余性和过拟合,提高网络的泛化能力和性能。

正交初始化基于保持向量长度和角度的数学性质,通过正交化权重矩阵来减少神经网络中的冗余性和过拟合。具体来说,正交初始化的过程可以分为以下几个步骤:

  • 高斯分布初始化:首先,使用均值为0、方差为1的高斯分布随机生成权重矩阵中的每个元素的初始值。
  • QR分解:然后,对初始权重矩阵进行QR分解或SVD分解,得到两个正交矩阵。
  • 选择正交矩阵:最后,选择其中一个正交矩阵作为权重矩阵。
python 复制代码
import torch
import torch.nn as nn
import torch.nn.init as init

class Net(nn.Module):
    def __init__(self):
        super(Net, self).__init__()
        self.fc1 = nn.Linear(10, 20)
        self.fc2 = nn.Linear(20, 10)

    def forward(self, x):
        x = torch.relu(self.fc1(x))
        x = self.fc2(x)
        return x

# 初始化网络
net = Net()

# 应用正交初始化
def orthogonal_init(module):
    if isinstance(module, nn.Linear):
        init.orthogonal_(module.weight)
        if module.bias is not None:
            init.zeros_(module.bias)

net.apply(orthogonal_init)
相关推荐
花仙子16613 分钟前
C#运动控制系统:雷赛控制卡实用完整例子 C#雷赛开发快速入门 C#雷赛运动控制系统实战例子 C#快速开发雷赛控制卡
开发语言·算法·c#
怀念无所不能的你14 分钟前
洛谷P5318 【深基18.例3】查找文献(c嘎嘎)
算法
AIBigModel27 分钟前
微软:GPT-4o-mini只有8B,o1-mini仅100B
深度学习
Fishel-38 分钟前
预测facebook签到位置
人工智能·python·算法·机器学习·近邻算法·facebook
是阿静呀1 小时前
新手学习yolov8目标检测小记2--对比实验中经典模型库MMDetection使用方法(使用自己的数据集训练,并转换为yolo格式评价指标)
python·学习·yolo·目标检测
元气代码鼠1 小时前
AcWing练习题:油耗
算法
graceyun1 小时前
牛客网刷题 ——C语言初阶(5操作符)——BC111 小乐乐与进制转换
c语言·开发语言·算法
Gpluso_od1 小时前
LeetCode -Hot100 - 53. 最大子数组和
算法·leetcode
道友老李1 小时前
【PyTorch】实现卷积神经网络:使用CNN进行手写数字识别
人工智能·pytorch·cnn
视觉语言导航1 小时前
技术实践︱利用Docker快速体验Matterport3DSimulator!让视觉语言导航(VLN)任务入门再无门槛!
人工智能·docker·具身智能