109_神经网络的决策层:线性层(Linear Layer)与数据展平详解

在经过卷积层提取特征、池化层压缩空间、激活函数引入非线性后,神经网络进入了最后的决策阶段。线性层(Linear Layer),也称为全连接层(Fully Connected Layer),负责将这些抽象特征映射到最终的分类结果上。

1. 线性层的核心原理

线性层执行的是最基本的线性变换:

  • x:输入向量。
  • A:权重矩阵(Weights),也就是神经网络需要学习的核心参数。
  • b:偏置(Bias)。
  • 本质:它将输入空间的每一个点与输出空间的每一个点进行"全连接"。例如,将 196608 个特征值压缩映射到 10 个分类结果(如 CIFAR-10 的十个类别)上。

2. 关键操作:数据展平(Flatten)

线性层通常要求输入是一维向量 (除了 Batch 维度)。但卷积层的输出通常是四维张量 [Batch, Channel, Height, Width]。因此,在进入线性层之前,必须进行"展平"操作。

文件中展示了两种展平方法:

  1. 方法一: torch.reshape
  2. 方法二: torch.flatten**(推荐)**

3. 实战代码:构建全连接分类网络

文件通过以下代码展示了如何将 CIFAR-10 的图片通过线性层降维:


4. 什么是神经网络在"训练"的东西?

文件开篇提到:"神经网络训练的就是函数系 。"

在线性层中,这对应的就是权重(Weights)和偏置(Bias)。通过不断的迭代,网络会调整这些系数,使得当一张"猫"的图片输入时,输出向量中对应"猫"那个位置的数值最大。


5. 总结:一个完整的视觉网络结构

通过这一系列的笔记处理,我们现在可以勾勒出一个经典 CNN 的完整结构:

  1. 输入层:读取图像。
  2. 特征提取层:卷积(Conv2d)+ 激活(ReLU)+ 池化(MaxPool2d)。
  3. 转换层:展平(Flatten)。
  4. 分类决策层:线性层(Linear)。
相关推荐
周末程序猿15 分钟前
详解 karpathy 的 microgpt:实现一个浏览器运行的 gpt
人工智能·llm
ACP广源盛1392462567321 分钟前
破局 Type‑C 切换器痛点@ACP#GSV6155+LH3828/GSV2221+LH3828 黄金方案
c语言·开发语言·网络·人工智能·嵌入式硬件·计算机外设·电脑
xixixi7777729 分钟前
通信领域的“中国速度”:从5G-A到6G,从地面到星空
人工智能·5g·安全·ai·fpga开发·多模态
Dfreedom.1 小时前
计算机视觉全景图
人工智能·算法·计算机视觉·图像算法
EasyDSS1 小时前
智能会议管理系统/私有化视频会议平台EasyDSS私有化部署构建企业级私域视频全场景解决方案
人工智能·音视频
zhanghongbin011 小时前
成本追踪:AI API 成本计算与预算管理
人工智能
YBAdvanceFu1 小时前
从零构建智能体:深入理解 ReAct Plan Solve Reflection 三大经典范式
人工智能·python·机器学习·数据挖掘·多智能体·智能体
啦啦啦在冲冲冲1 小时前
多头注意力机制的优势是啥,遇到长文本的情况,可以从哪些情况优化呢
人工智能·深度学习
xrgs_shz2 小时前
直方图法、最大类间方差法、迭代法和自适应阈值法的图像分割的基本原理和MATLAB实现
人工智能·计算机视觉·matlab
向上的车轮2 小时前
如何定制大模型——工业场景下大模型定制与私有化部署选型
人工智能