【00】神经网络之初始化参数

问题描述

#随机初始化权重

w12 = np.random.randn(100, 784)/np.sqrt(784)

为什么除以28

回答

这里的代码是初始化一个深度学习模型中的权重矩阵w12。权重矩阵的形状是(100, 784),这是一个从784个输入节点到100个隐藏节点的全连接层。

除以np.sqrt(784)是权重初始化的一种策略,通常称为"Xavier初始化"或"Glorot初始化"。该初始化策略的目的是使权重的初始值具有合适的尺度,以保证网络中每一层的信号既不会过小也不会过大,从而有助于模型的收敛。
784这个数字是28 x 28的结果,这很可能是一个28x28像素的图像,对应的是MNIST数据集中的图像尺寸。

除以np.sqrt(784)的原因是:

  1. 根据Xavier初始化,当使用tanh激活函数时,权重应该从均值为0、方差为1/n的分布中初始化,其中n是输入节点的数量。在这里,n = 784
  2. 当从标准正态分布中随机抽取权重(使用np.random.randn())时,得到的权重具有均值0和方差1。为了将方差调整为1/n,可以将权重除以np.sqrt(n)

因此,除以np.sqrt(784)是为了将权重的方差调整为1/784,这有助于优化算法的收敛性。

备注:

random.randn 是NumPy库中的一个函数,用于从标准正态分布(均值为0,方差为1)中生成随机数。

具体来说,当你使用 random.randn 时:

  • 它会返回一个或一组从标准正态分布中随机抽取的数值。
  • 参数决定了返回数组的形状。例如,np.random.randn(3, 4) 会返回一个3x4的数组,其中的每个元素都是从标准正态分布中随机抽取的。

使用 random.randn 是初始化神经网络权重的常用方法,特别是当使用某些权重初始化策略(如Xavier初始化)时。从标准正态分布中抽取的随机权重可以确保在训练开始时权重是小的、不同的,并且它们的分布具有某种规律性。这有助于避免某些训练问题,如权重全部更新为相同的值或权重更新太大导致的梯度爆炸。

相关推荐
东方不败之鸭梨的测试笔记19 分钟前
测试工程师如何利用AI大模型?
人工智能
智能化咨询23 分钟前
(68页PPT)埃森哲XX集团用户主数据治理项目汇报方案(附下载方式)
大数据·人工智能
说私域31 分钟前
分享经济应用:以“开源链动2+1模式AI智能名片S2B2C商城小程序”为例
人工智能·小程序·开源
工业机器视觉设计和实现31 分钟前
我的第三个cudnn程序(cifar10改cifar100)
人工智能·深度学习·机器学习
熊猫钓鱼>_>34 分钟前
PyTorch深度学习框架入门浅析
人工智能·pytorch·深度学习·cnn·nlp·动态规划·微分
Altair澳汰尔43 分钟前
成功案例丨仿真+AI技术为快消包装行业赋能提速:基于 AI 的轻量化设计节省数十亿美元
人工智能·ai·仿真·cae·消费品·hyperworks·轻量化设计
祝余Eleanor1 小时前
Day 31 类的定义和方法
开发语言·人工智能·python·机器学习
背心2块钱包邮1 小时前
第6节——微积分基本定理(Fundamental Theorem of Calculus,FTC)
人工智能·python·机器学习·matplotlib
也许是_1 小时前
大模型应用技术之提示词高阶技巧
人工智能
ShiMetaPi1 小时前
SAM(通用图像分割基础模型)丨基于BM1684X模型部署指南
人工智能·算法·ai·开源·bm1684x·算力盒子