“神经网络的参数为什么不能全为0“的简单理解

考虑一个最简单的多层全连接网络,每一层的输出和输入之间的关系为:

复制代码
Z = AW + b

如果W和b均为0,那么整个网络除了第一层的输入不为0外,其他所有层的输入都为0,也就是说对于除了 input layer 之外的任意层,A 均为0。

而如果考虑每一层单独的导数,就会有 Z'(b) = 1Z'(A) = W, Z'(W) = A ,那么如果W都为0,则意味着对A的导数为0,而我们知道对每一层的导数都是由其上一层的导数经过链式法则得来的,而现在最上面的output layer 对A的导数全为0,那么由上往下走,每一层的梯度都需要乘以上一层的梯度,也就是0,导致整个网络的梯度全为0。

最终的结果是,除了最后一层的b,(导数为1,可以更新),所有其他的参数均不会得到更新。

相关推荐
咨询QQ276998857 小时前
基于模型的增程式混合动力汽车整车策略开发与建模
神经网络
老鱼说AI10 小时前
算法基础教学第二步:数组(超级详细原理级别讲解)
数据结构·神经网络·算法·链表
生成论实验室12 小时前
周林东的生成论入门十讲 · 第一讲 问题的根源——我们活在“制造的文明”里
人工智能·科技·神经网络·信息与通信·几何学
宇来风满楼15 小时前
U-KAN复现
人工智能·深度学习·神经网络·算法·机器学习
roman_日积跬步-终至千里17 小时前
【模式识别与机器学习(13)】神经网络与深度学习(二):卷积神经网络、正则化、优化算法、循环神经网络
深度学习·神经网络·机器学习
roman_日积跬步-终至千里18 小时前
【模式识别与机器学习(12)】神经网络与深度学习教程-第一部分:核心原理
深度学习·神经网络·机器学习
西猫雷婶19 小时前
CNN计算|原始矩阵扩充后的多维度卷积核计算效果
人工智能·pytorch·深度学习·神经网络·机器学习·矩阵·cnn
补三补四19 小时前
参数优化—序列神经网络
人工智能·深度学习·神经网络
海边夕阳20061 天前
【每天一个AI小知识】:什么是生成对抗网络?
人工智能·经验分享·深度学习·神经网络·机器学习·生成对抗网络
盼小辉丶1 天前
图机器学习(7)——图神经网络 (Graph Neural Network, GNN)
人工智能·神经网络·图神经网络·图机器学习