卷积神经网络(CNN) 学习笔记1

目录

1.典型层级结构

[1.1. 输入端:数据输入层 (Input Layer)](#1.1. 输入端:数据输入层 (Input Layer))

[1.2. 中间层:核心特征提取层](#1.2. 中间层:核心特征提取层)

[1.3. 输出端:全连接层 (FC Layer)](#1.3. 输出端:全连接层 (FC Layer))

2.实例

2.1.神经网络的设计和实现

2.2.训练数据的准备和处理

2.2.1获取数据

[2.2.2 读取数据](#2.2.2 读取数据)

2.3.模型的训练和测试流程

[2.3.1 训练模型](#2.3.1 训练模型)

[2.3.2 测试模型](#2.3.2 测试模型)

参考资料


这篇笔记的是在想在FPGA中部署CNN的学习过程中做的笔记,主要是记录在学习B站"从零设计并训练一个神经网络,你就能真正理解它了_哔哩哔哩_bilibili"课程时做的一些笔记,只是大概了解CNN如何搭建的全流程,但是对CNN的内部结构还是不了解。

1.典型层级结构

CNN的典型层级结构如下图所示。图来源于参考资料1。

图中卷积神经网络(CNN) 的典型层级结构分为三个主要部分,分别是输入层、中间层、输出层。每一层的功能如下:

1.1. 输入端:数据输入层 (Input Layer)

这是架构的最左侧,主要负责对原始数据进行预处理,以提升训练效果和模型的稳定性。常见的处理手段包括:

  • 去均值 (Mean Subtraction): 将数据各维度中心化为 0,防止数据偏差影响训练。

  • 归一化 (Normalization): 将所有数据缩放到统一的范围。

  • 其他: 如 PCA(主成分分析)和白化(Whitening)等。

1.2. 中间层:核心特征提取层

这是 CNN 的主体部分,通常由以下三种层反复堆叠而成:

  • CONV (卷积计算层): 负责特征提取,通过线性乘积并求和的方式捕捉局部特征。这是 CNN 的核心

  • RELU (激活层): 采用 ReLU 等激活函数,为模型引入非线性,使其能处理复杂的特征。

  • POOL (池化层): 进行下采样(取区域平均值或最大值),目的是减小数据维度,减少计算量并防止过拟合。

1.3. 输出端:全连接层 (FC Layer)

位于架构的最右边:

  • FC (Fully Connected Layer): 负责将前面提取到的各种特征进行汇总,最终用于分类或回归任务。

2.实例

此例子来自参考资料2。

2.1.神经网络的设计和实现

2.2.训练数据的准备和处理

2.2.1获取数据

2.2.2 读取数据

2.3.模型的训练和测试流程

2.3.1 训练模型

2.3.2 测试模型

参考资料

  1. CNN笔记:通俗理解卷积神经网络_cnn卷积神经网络-CSDN博客:介绍了cnn的基础知识,主要是如何识别出物体的类别,卷积是怎么运算的。

2.从零设计并训练一个神经网络,你就能真正理解它了_哔哩哔哩_bilibili:以手写数字为例子,介绍了前馈

相关推荐
偷吃的耗子9 小时前
【CNN算法理解】:三、AlexNet 训练模块(附代码)
深度学习·算法·cnn
LaughingZhu13 小时前
Product Hunt 每日热榜 | 2026-02-10
人工智能·经验分享·深度学习·神经网络·产品运营
技术传感器14 小时前
大模型从0到精通:对齐之心 —— 人类如何教会AI“好“与“坏“ | RLHF深度解析
人工智能·深度学习·神经网络·架构
island131421 小时前
ops-nn 算子库:神经网络异构加速的秘密武器与微架构深度协同
人工智能·神经网络·性能优化
查无此人byebye21 小时前
从DDPM到DiT:扩散模型3大核心架构演进|CNN到Transformer的AIGC生成革命(附实操要点)
人工智能·pytorch·深度学习·架构·cnn·音视频·transformer
LaughingZhu21 小时前
Product Hunt 每日热榜 | 2026-02-11
人工智能·经验分享·神经网络·信息可视化·产品运营
A尘埃1 天前
数学:神经网络的数学基础
人工智能·深度学习·神经网络
艾派森1 天前
深度学习实战-基于CNN与Transformer的人工智能艺术VS人类艺术识别模型
人工智能·python·深度学习·神经网络·cnn
杜子不疼.1 天前
神经网络入门:从零开始构建你的第一个深度学习模型
人工智能·深度学习·神经网络
阿龙AI日记1 天前
热力图:网络到底学了个啥?
深度学习·神经网络·计算机视觉