深度学习基础—卷积神经网络示例

1.卷积神经网络的结构


在之前的博客《深度学习---简单的卷积神经网络》,仅由卷积层构成网络的全部,这还不是标准的网络结构,本文将继续介绍标准的卷积神经网络结构有哪些?

深度学习基础---简单的卷积神经网络https://blog.csdn.net/sniper_fandc/article/details/141688769?fromshare=blogdetail&sharetype=blogdetail&sharerId=141688769&sharerefer=PC&sharesource=sniper_fandc&sharefrom=from_link

假设需要进行手写数字识别,输入图片是32*32*3大小的RGB图片,下面我们来构建一个卷积神经网络实现这个功能:

注:该网络和经典网络LeNet-5非常相似,灵感也来源于此。LeNet-5是多年前Yann LeCun创建的,但是我们所采用的模型并不是LeNet-5,但是受它启发,许多参数选择都与LeNet-5相似。

(1)卷积层

第一层使用过滤器f大小为5×5,步长s是1,padding是0,过滤器个数为6,那么输出为28×28×6。将这层标记为CONV1,它用了6个过滤器,增加了偏差,应用了非线性函数,可能是ReLU非线性函数,最后输出CONV1的结果。

(2)池化层

然后构建一个池化层,这里选择最大池化,参数f=2,步长s=2,padding为0(本网络的padding均为0,后续不再说明),过滤器的选择表示层的高度和宽度会减少一半。因此输出为14×14,通道数量保持不变,所以最终输出为14×14×6,将该输出标记为POOL1。

(3)关于层的划分

在卷积神经网络中关于卷积的划分主要有两类(即层的划分):一类是卷积层作为单独的一层,池化层作为单独的一层;另一类是把一个卷积层和一个池化层一并称为一层。由于池化层没有权重和参数(只有超参数),统计神经网络的层数时通常只统计有权重和参数的层,因此这里把CONV1和POOL1统称为Layer1。Layer2层结构类似,具体参数如上图,这里不再赘述。

(4)全连接层

将POOL2的输出转化为一个大小为400的向量,把平整化结果想象成某个包含神经元的层,然后利用这400个单元构建下一层。下一层含有120个单元,这就是第一个全连接层,标记为FC3。这400个单元与120个单元紧密相连,这就是全连接层,也是一个标准的神经网络层。它的权重矩阵W[3]的维度为120×400,偏差参数b[3]的维度为120×1。

把FC3层的输出作为FC4的输入,FC4层有84个神经元,因此输出的结果是长度84的向量。最后,用这84个单元填充一个softmax单元。如果我们想通过手写数字识别来识别手写0-9这10个数字,这个softmax就会有10个输出。

(5)激活值维度

这里提醒两点:第一,池化层没有参数;第二卷积层的参数相对较少。其实,许多参数都存在于神经网络的全连接层。观察可发现,随着神经网络的加深,激活值尺寸会逐渐变小,如果激活值尺寸下降太快,也会影响神经网络性能。示例中,激活值尺寸在第一层为6000,然后减少到1600,慢慢减少到84,最后输出softmax结果。我们发现,许多卷积网络都具有这些属性,模式上也相似。

一个卷积神经网络包括卷积层、池化层和全连接层,如何构建高效的神经网络,整合这些基本模块,需要对模块有深入的理解,最简单高效的方式就是大量阅读文献和案例,尤其是不同领域的融汇贯通。

2.为什么要使用卷积


假设有一张32×32×3维度的图片,使用卷积的情况下,比如示例的第一层有6个大小为5×5的过滤器,输出维度为28×28×6。32×32×3=3072,28×28×6=4704。而构建一个普通的神经网络,其中一层含有3072个单元,下一层含有4074个单元,两层中的每个神经元彼此相连,然后计算权重矩阵,它等于4074×3072≈1400万,所以要训练的参数很多。虽然以现在的技术,可以用1400多万个参数来训练网络,因为这张32×32×3的图片非常小,训练这么多参数没有问题。但是如果这是一张1000×1000的图片,权重矩阵会变得非常大。仅仅这个卷积层的参数数量,每个过滤器都是5×5,一个过滤器有25个参数,再加上偏差参数,那么每个过滤器就有26个参数,一共有6个过滤器,所以参数共计156个,参数数量还是很少。

卷积神经网络参数少的原因有如下两点:

(1)参数共享

如果特征检测过程中,比如垂直边缘检测如果适用于图片的某个区域,那么它也可能适用于图片的其他区域,那么使用一个过滤器就可以提取多个区域中的特征,这样就大大减少了参数的数量。

(2)稀疏连接

某一个输出值仅与输入图片的过滤器大小范围的像素值有关,比如上图中绿色的0,在3*3的过滤器大小下,仅和输入图片的左上角9个像素有关,其他像素值不影响其输出的大小。这就是稀疏连接,它和全连接概念有重大区别,全连接就是每层神经元的输出和下层神经元的输入均相连,因此参数量巨大。而稀疏连接中,下层和本层的连接关系只受到过滤器大小和位置影响,因此参数量很小。

神经网络可以通过这两种机制减少参数,以便我们用更小的训练集来训练它,从而预防过度拟合。卷积神经网络善于捕捉平移不变。即使移动少量像素,图片依然清晰可见,因为神经网络的卷积结构使得移动前后图片依然具有非常相似的特征,应该属于同样的输出标记。

相关推荐
杜子不疼.17 小时前
计算机视觉热门模型手册:Spring Boot 3.2 自动装配新机制:@AutoConfiguration 使用指南
人工智能·spring boot·计算机视觉
无心水19 小时前
【分布式利器:腾讯TSF】7、TSF高级部署策略全解析:蓝绿/灰度发布落地+Jenkins CI/CD集成(Java微服务实战)
java·人工智能·分布式·ci/cd·微服务·jenkins·腾讯tsf
北辰alk1 天前
RAG索引流程详解:如何高效解析文档构建知识库
人工智能
九河云1 天前
海上风电“AI偏航对风”:把发电量提升2.1%,单台年增30万度
大数据·人工智能·数字化转型
wm10431 天前
机器学习第二讲 KNN算法
人工智能·算法·机器学习
沈询-阿里1 天前
Skills vs MCP:竞合关系还是互补?深入解析Function Calling、MCP和Skills的本质差异
人工智能·ai·agent·ai编程
xiaobai1781 天前
测试工程师入门AI技术 - 前序:跨越焦虑,从优势出发开启学习之旅
人工智能·学习
盛世宏博北京1 天前
云边协同・跨系统联动:智慧档案馆建设与功能落地
大数据·人工智能
TGITCIC1 天前
讲透知识图谱Neo4j在构建Agent时到底怎么用(二)
人工智能·知识图谱·neo4j·ai agent·ai智能体·大模型落地·graphrag
逆羽飘扬1 天前
DeepSeek-mHC深度拆解:流形约束如何驯服狂暴的超连接?
人工智能