“神经网络的参数为什么不能全为0“的简单理解

考虑一个最简单的多层全连接网络,每一层的输出和输入之间的关系为:

复制代码
Z = AW + b

如果W和b均为0,那么整个网络除了第一层的输入不为0外,其他所有层的输入都为0,也就是说对于除了 input layer 之外的任意层,A 均为0。

而如果考虑每一层单独的导数,就会有 Z'(b) = 1Z'(A) = W, Z'(W) = A ,那么如果W都为0,则意味着对A的导数为0,而我们知道对每一层的导数都是由其上一层的导数经过链式法则得来的,而现在最上面的output layer 对A的导数全为0,那么由上往下走,每一层的梯度都需要乘以上一层的梯度,也就是0,导致整个网络的梯度全为0。

最终的结果是,除了最后一层的b,(导数为1,可以更新),所有其他的参数均不会得到更新。

相关推荐
pzx_00114 小时前
【论文阅读】SWE-CI: Evaluating Agent Capabilities in Maintaining Codebases via Continuous Integration
论文阅读·人工智能·深度学习·神经网络·ci/cd
那个,我想吃麦麦14 小时前
【论文阅读 | Advanced Engineering Informatics 2026】融合条件扩散与图学习的 EEG 信号重建与认知负荷识别
人工智能·深度学习·神经网络
心疼你的一切15 小时前
PyTorch实战:手写数字识别神经网络
人工智能·pytorch·深度学习·神经网络·机器学习
张二娃同学2 天前
第08篇_RNN_LSTM_GRU序列模型
人工智能·python·rnn·深度学习·神经网络·gru·lstm
书生的梦2 天前
《神经网络与深度学习》学习笔记(一)
笔记·深度学习·神经网络
kcuwu.2 天前
(多代码实现版)PyTorch神经网络入门博客
人工智能·pytorch·神经网络
HSunR2 天前
神经网络 从函数到transformer学习笔记
神经网络·学习·transformer
数据门徒2 天前
神经网络原理 第八章:主分量分析
人工智能·深度学习·神经网络
人工智能培训2 天前
伦理与安全困境:在平衡中探寻前行之路
人工智能·深度学习·神经网络·机器学习·生成对抗网络
星浩AI2 天前
(二)神经网络训练基础:激活函数、反向传播与自动求导
pytorch·深度学习·神经网络