神经网络与空间变换关系

神经网络的隐藏层实际上就是在进行一次空间变换,隐藏层中神经元的个数就是变换后空间的维度,代表可以升维也可以降维。

不同是 神经网络的一层运算不只有矩阵乘法,还会有一个加法。以及 进行完线性计算后,还要经过非线性的激活函数

  1. 与权重系数W相乘,相当于是乘以一个矩阵,进行和空间的旋转或者是拉伸变换,

​2. 加上偏置系数b,相当于对空间向量进行了一个平移操作

  1. 经过非线性的激活函数,让模型描述更复杂的情况,实现多对一(比如分类问题,如果将每张图片当作原空间的一个点,最后映射到新空间的一个点(猫))

隐藏层虽然有了更深的层,但是神经元的个数却在减少。

隐藏层越深,抽象程度越高

相关推荐
数据智能老司机14 分钟前
PyTorch 深度学习——使用张量表示真实世界数据
pytorch·深度学习
踩着两条虫21 分钟前
AI 智能体如何重构开发工作流
前端·人工智能·低代码
大模型真好玩34 分钟前
大模型训练全流程实战指南工具篇(八)——EasyDataset问答数据集生成流程
人工智能·langchain·deepseek
Johny_Zhao2 小时前
OpenClaw中级到高级教程
linux·人工智能·信息安全·kubernetes·云计算·yum源·系统运维·openclaw
比尔盖茨的大脑4 小时前
AI Agent 架构设计:从 ReAct 到 Multi-Agent 系统
前端·人工智能·全栈
数据智能老司机4 小时前
PyTorch 深度学习——它始于一个张量
pytorch·深度学习
后端小肥肠4 小时前
OpenClaw 实战|多 Agent 打通小红书:数据收集 + 笔记编写 + 自动发布一步到位
人工智能·aigc·agent
银河系搭车客指南5 小时前
OpenClaw 多 Agent 实战指南:Multi-Agent Routing 与 Sub-Agents 的正确打开方式
人工智能
手机不死我是天子5 小时前
拆解大模型二:Transformer 最核心的设计,其实你高中就学过
人工智能·llm
gustt5 小时前
MCP协议进阶:构建多工具Agent实现智能查询与浏览器交互
人工智能·agent·mcp