神经网络与空间变换关系

神经网络的隐藏层实际上就是在进行一次空间变换,隐藏层中神经元的个数就是变换后空间的维度,代表可以升维也可以降维。

不同是 神经网络的一层运算不只有矩阵乘法,还会有一个加法。以及 进行完线性计算后,还要经过非线性的激活函数

  1. 与权重系数W相乘,相当于是乘以一个矩阵,进行和空间的旋转或者是拉伸变换,

​2. 加上偏置系数b,相当于对空间向量进行了一个平移操作

  1. 经过非线性的激活函数,让模型描述更复杂的情况,实现多对一(比如分类问题,如果将每张图片当作原空间的一个点,最后映射到新空间的一个点(猫))

隐藏层虽然有了更深的层,但是神经元的个数却在减少。

隐藏层越深,抽象程度越高

相关推荐
上进小菜猪11 小时前
基于 YOLOv8 的智能车牌定位检测系统设计与实现—从模型训练到 PyQt 可视化落地的完整实战方案
人工智能
AI浩12 小时前
UNIV:红外与可见光模态的统一基础模型
人工智能·深度学习
GitCode官方12 小时前
SGLang AI 金融 π 对(杭州站)回顾:大模型推理的工程实践全景
人工智能·金融·sglang
木头左12 小时前
LSTM模型入参有效性验证基于量化交易策略回测的方法学实践
人工智能·rnn·lstm
找方案12 小时前
我的 all-in-rag 学习笔记:文本分块 ——RAG 系统的 “信息切菜术“
人工智能·笔记·all-in-rag
亚马逊云开发者12 小时前
让 AI 工作空间更智能:Amazon Quick Suite 集成博查搜索实践
人工智能
腾讯WeTest13 小时前
「低成本、高质高效」WeTest AI翻译限时免费
人工智能
Lucas5555555513 小时前
现代C++四十不惑:AI时代系统软件的基石与新征程
开发语言·c++·人工智能
言之。13 小时前
Claude Code 专业教学文档
人工智能
Fuly102413 小时前
大模型架构理解与学习
人工智能·语言模型