深度学习和神经网络 卷积神经网络CNN

1.什么是卷积神经网络

一种前馈神经网络;受生物学感受野的机制提出专门处理网格结构数据的深度学习模型

核心特点:通过卷积操作自动提取空间局部特征(如纹理、边缘),显著降低参数量

2.CNN的三个结构特征

局部连接;权重共享(不同位置上的卷积核是一样的);空间或时间上的次采样

3.卷积过程及不同类型的卷积

卷积过程:

输入矩阵与卷积核作矩阵乘法得到特征矩阵

javascript 复制代码
输入矩阵        卷积核(3×3)      输出特征图(3×3)
[1, 1, 1, 0, 0]   [1, 0, 1]        [4, 3, 4]
[0, 1, 1, 1, 0]   [0, 1, 0]   →    [2, 4, 3]
[0, 0, 1, 1, 1]   [1, 0, 1]        [2, 3, 4]
[0, 0, 1, 1, 0]                (步长=1,无填充)
[1, 1, 0, 0, 0]

不同类型卷积:

举出较常见的:

(1)窄卷积:步长step=1,无padding,卷积后输出维数为M-K+1

(2)宽卷积:步长step=1,有padding,在外围补K-1圈0,卷积后输出维数M+K-1

(3)等宽卷积(输出大小不变):步长step=1;有padding,在外围补一圈0即可,卷积后输出维数为M

注:M为输入序列的维数,K为补的大小,以矩阵为例

4.卷积核,卷积层,卷积网络结构

卷积核:

一个特征提取器,可以有多个卷积核,比如一个提取水平特征一个提取垂直特征,可以通过增加卷积核的个数来增强卷积层的能力

卷积层:

典型的卷积层为3维结构

卷积网络结构:

由卷积层、池化层,全连接层堆叠而成

(1)数据输入层(input_layer)

(2)卷积计算层(conv_layer)

局部特征提取;训练中进行参数学习;每个卷积核提取特定模式的特征

(3)ReLU激活层(ReLU_layer)

(4)池化层(polling_layer)

降低数据维度,避免过拟合;增强局部感受野;提高平移不变性

为了提炼最主要的特征并降维

(5)全连接层(fc_layer)

特征提取到分类的桥梁

5.残差网络(ResNet)

通过给非线性的卷积层增加直连边的方式来提高信息的传播效率

ResNet通过 "跨层连接 + 残差学习" ,将深层网络训练转化为对微小扰动(残差)的优化,彻底解决深度退化问题,开启千层神经网络时代

相关推荐
Dfreedom.3 小时前
【实战篇】图像分割-计算图中不同颜色区域的面积比
图像处理·人工智能·深度学习·计算机视觉·图像分割·otsu
计算机毕业设计指导3 小时前
基于机器学习和深度学习的恶意WebURL检测系统实战详解
人工智能·深度学习·机器学习·网络安全
罗西的思考3 小时前
【OpenClaw】通过 Nanobot 源码学习架构---(6)Skills
人工智能·深度学习·算法
乐园游梦记4 小时前
机器学习:监督学习与无监督学习由浅入深全解析
人工智能·深度学习·学习·机器学习
LDG_AGI4 小时前
【搜索引擎】Elasticsearch(二):基于function_score的搜索排序
数据库·人工智能·深度学习·elasticsearch·机器学习·搜索引擎·推荐算法
这张生成的图像能检测吗4 小时前
(论文速读)UWDET:基于物联网的资源有限水下目标探测训练增强
人工智能·深度学习·物联网·目标检测·计算机视觉·水下目标检测
小超同学你好4 小时前
Transformer 24. Gemma 2 架构详解:交替局部/全局注意力、GQA、双层 RMSNorm 与 Logit Soft-Capping
人工智能·深度学习·transformer
电磁脑机4 小时前
无总线场同步:意识本质、AGI困境与脑机革命的核心理论重构
分布式·神经网络·架构·信号处理·agi
海海不掉头发5 小时前
【11月16日-大模型前置知识【深度学习】+大模型开发入门】-基础篇笔记
人工智能·笔记·深度学习
沪漂阿龙6 小时前
PyTorch 深度学习完全指南:从激活函数到房价预测实战
人工智能·pytorch·深度学习