神经网络与空间变换关系

神经网络的隐藏层实际上就是在进行一次空间变换,隐藏层中神经元的个数就是变换后空间的维度,代表可以升维也可以降维。

不同是 神经网络的一层运算不只有矩阵乘法,还会有一个加法。以及 进行完线性计算后,还要经过非线性的激活函数

  1. 与权重系数W相乘,相当于是乘以一个矩阵,进行和空间的旋转或者是拉伸变换,

​2. 加上偏置系数b,相当于对空间向量进行了一个平移操作

  1. 经过非线性的激活函数,让模型描述更复杂的情况,实现多对一(比如分类问题,如果将每张图片当作原空间的一个点,最后映射到新空间的一个点(猫))

隐藏层虽然有了更深的层,但是神经元的个数却在减少。

隐藏层越深,抽象程度越高

相关推荐
Fairy要carry1 分钟前
面试-Encoder-Decoder预训练思路
人工智能
杭州泽沃电子科技有限公司1 分钟前
“不速之客”的威胁:在线监测如何筑起抵御小动物的智能防线
人工智能·在线监测
MistaCloud3 分钟前
Pytorch进阶训练技巧(二)之梯度层面的优化策略
人工智能·pytorch·python·深度学习
农夫山泉2号6 分钟前
【rk】——rk3588推理获得logits
人工智能·rk3588·ppl
HaiLang_IT6 分钟前
基于图像处理的的蔬菜病害检测方法研究与实现
图像处理·人工智能
静听松涛1336 分钟前
AI成为科学发现的自主研究者
人工智能
爱吃肉的鹏11 分钟前
使用Flask在本地调用树莓派摄像头
人工智能·后端·python·flask·树莓派
3DVisionary16 分钟前
告别传统检具:蓝光3D扫描开启精密模具“数字化质检”新模式
人工智能·3d·数字化转型·质量控制·蓝光3d扫描·精密模具·可溯源
deephub16 分钟前
RAG 检索模型如何学习:三种损失函数的机制解析
人工智能·深度学习·损失函数·信息检索·rag
方见华Richard20 分钟前
伦理量子信息学:九元原子的量子信息实现
人工智能·经验分享·交互·原型模式·空间计算