“神经网络的参数为什么不能全为0“的简单理解

考虑一个最简单的多层全连接网络,每一层的输出和输入之间的关系为:

复制代码
Z = AW + b

如果W和b均为0,那么整个网络除了第一层的输入不为0外,其他所有层的输入都为0,也就是说对于除了 input layer 之外的任意层,A 均为0。

而如果考虑每一层单独的导数,就会有 Z'(b) = 1Z'(A) = W, Z'(W) = A ,那么如果W都为0,则意味着对A的导数为0,而我们知道对每一层的导数都是由其上一层的导数经过链式法则得来的,而现在最上面的output layer 对A的导数全为0,那么由上往下走,每一层的梯度都需要乘以上一层的梯度,也就是0,导致整个网络的梯度全为0。

最终的结果是,除了最后一层的b,(导数为1,可以更新),所有其他的参数均不会得到更新。

相关推荐
能来帮帮蒟蒻吗5 小时前
深度学习(2)—— 神经网络与训练
人工智能·深度学习·神经网络
kev_gogo9 小时前
【链式法则】神经网络中求导时w既是常数也是自变量的辨析(能否对常数求导?)
人工智能·深度学习·神经网络
化作星辰14 小时前
深度学习_神经网络_损失函数基础
人工智能·深度学习·神经网络
8Qi81 天前
伪装图像生成之——GAN与Diffusion
人工智能·深度学习·神经网络·生成对抗网络·图像生成·伪装图像生成
xier_ran1 天前
深度学习:从零开始手搓一个浅层神经网络(Single Hidden Layer Neural Network)
人工智能·深度学习·神经网络
麻雀无能为力1 天前
现代卷积神经网络
人工智能·神经网络·cnn
合天网安实验室1 天前
深度学习模型CNN识别恶意软件
深度学习·神经网络·机器学习
大千AI助手1 天前
PPT: Pre-trained Prompt Tuning - 预训练提示调优详解
人工智能·神经网络·llm·prompt·ppt·大千ai助手·预训练提示调优
进击的炸酱面1 天前
第五章 神经网络
人工智能·深度学习·神经网络
wzx_Eleven2 天前
【论文阅读】Towards Fair Federated Learning via Unbiased Feature Aggregation
论文阅读·人工智能·神经网络