“神经网络的参数为什么不能全为0“的简单理解

考虑一个最简单的多层全连接网络,每一层的输出和输入之间的关系为:

复制代码
Z = AW + b

如果W和b均为0,那么整个网络除了第一层的输入不为0外,其他所有层的输入都为0,也就是说对于除了 input layer 之外的任意层,A 均为0。

而如果考虑每一层单独的导数,就会有 Z'(b) = 1Z'(A) = W, Z'(W) = A ,那么如果W都为0,则意味着对A的导数为0,而我们知道对每一层的导数都是由其上一层的导数经过链式法则得来的,而现在最上面的output layer 对A的导数全为0,那么由上往下走,每一层的梯度都需要乘以上一层的梯度,也就是0,导致整个网络的梯度全为0。

最终的结果是,除了最后一层的b,(导数为1,可以更新),所有其他的参数均不会得到更新。

相关推荐
陈天伟教授6 小时前
人工智能应用- 搜索引擎:02. 搜索引擎发展史
人工智能·深度学习·神经网络·游戏·搜索引擎·机器翻译
陈天伟教授6 小时前
人工智能应用- 搜索引擎:01. 互联网时代
人工智能·神经网络·搜索引擎·语言模型·自然语言处理·机器翻译
陈天伟教授7 小时前
人工智能应用- 搜索引擎:03. 网页定位
人工智能·神经网络·机器学习·搜索引擎·dnn
Clarence Liu8 小时前
用大白话讲解人工智能(6) 深度学习:堆“多层神经网络“会发生什么?
人工智能·深度学习·神经网络
LaughingZhu16 小时前
Product Hunt 每日热榜 | 2026-02-14
数据库·人工智能·经验分享·神经网络·搜索引擎·chatgpt
民乐团扒谱机16 小时前
【读论文】深度学习中的卷积算术指南 A guide to convolution arithmetic for deep learning
人工智能·深度学习·神经网络·机器学习·cnn·卷积神经网络·图像识别
肾透侧视攻城狮1 天前
《掌握Keras模型构建基石:全连接、卷积、LSTM等核心层解析与组合策略》
人工智能·深度学习·神经网络·keras核心层类型·conv2d二维卷积层·lstm长短期记忆网络层·dropout随机失活层
陈天伟教授1 天前
人工智能应用- 人机对战:06. 小结
人工智能·深度学习·神经网络·机器学习·dnn
Rorsion1 天前
PyTorch实现卷积神经网络(CNN)
人工智能·神经网络·cnn
陈天伟教授1 天前
人工智能应用- 扫地机器人:02. 机器人 ≠ 人工智能
人工智能·神经网络·游戏·自然语言处理·机器人·机器翻译