初识CNN

一、卷积网络与传统网络的区别

1. 传统的是二维的,特征很多,卷积是三维的,将图片直接输入

二、整体架构

输入层->卷积层->池化层->全连接层

三、卷积做了什么事

1、

将图片分成一块一块,如上图所示,原图片是55 3,5是长,5是宽,3是深度(之所以是3是因为RGB,三个通道),分类以33为一块,3个通道的矩阵分别与flter内积得到三个值,再相加,得到一个值后,再加上一个bias,然后输出,结果见上图,不同的通道filter不同,即一个filter是一个卷积内核,33(前面两个三自己定)*3(必须与输入数据的深度相同),旁边灰色的0是用来填充的,这样原本是边界的值不再是边界,增加使用的概论。

2、特征图的个数

如上图所示,我们得到了两个28*28的两个特征图,说明有两个filter

3.堆叠的卷积层

如上图所示,多层卷积的意思是在提取出的特征图上再使用卷积。第一次卷积用55 3,之所以是3 ,是因为前面的深度是3,用了6个卷积核,得到2828 6的特征;第二次卷积用了55 6的卷积核,之所以是6是因为前面的深度是6,用了10个卷积核,得到242410的特征。

4.卷积层涉及的参数

滑动窗口步长越小,卷积核尺寸越小,粒度越细,反之越粗。边缘填充上面已经说明,即填充0,卷积核个数代表特征图个数

5、卷积计算结果公式

题目:假设数据是3232 3的图像,用10个553的卷积核,请问有多少个权重参数?

答:553*10=750,750+10=760()需要加上偏置值

注意,卷积参数共享

四、池化层

如图所示的是最大池化层,它起到一个缩小长和宽的作用,进行筛选过滤,但不能改变特征数,最常用的是最大池化,即选择权重最高的。其过程没有涉及矩阵的运算

五、举例说明

如图所示,CONV即卷积,RELU是激活函数,POOL是池化层,最后,假设我们得到了3232 10的特征图,最后再将其拉成102400*1的向量,再使用【10240,5】的全连接层,进行分类。其中,只有进行矩阵运算的才算一层,在该图中有6次卷积,1次全连接涉及矩阵运算,故有6+1=7层

相关推荐
畅联云平台3 分钟前
美畅物联丨智能分析,安全管控:视频汇聚平台助力智慧工地建设
人工智能·物联网
加密新世界9 分钟前
优化 Solana 程序
人工智能·算法·计算机视觉
hunteritself23 分钟前
ChatGPT高级语音模式正在向Web网页端推出!
人工智能·gpt·chatgpt·openai·语音识别
Che_Che_1 小时前
Cross-Inlining Binary Function Similarity Detection
人工智能·网络安全·gnn·二进制相似度检测
哈市雪花1 小时前
图像处理 之 凸包和最小外围轮廓生成
图像处理·人工智能·图形学·最小外围轮廓·最小外包
LittroInno1 小时前
无人机侦察打击方案(3)
人工智能·无人机
如若1231 小时前
实现了图像处理、绘制三维坐标系以及图像合成的操作
图像处理·人工智能
谢眠1 小时前
机器学习day6-线性代数2-梯度下降
人工智能·机器学习
就是求关注2 小时前
基于深度卷积神经网络(CNN)模型的图像着色研究与应用系统实现
cnn·图像着色·照片着色·基于深度学习的图像着色·基于cnn的图像着色
sp_fyf_20242 小时前
【大语言模型】ACL2024论文-19 SportsMetrics: 融合文本和数值数据以理解大型语言模型中的信息融合
人工智能·深度学习·神经网络·机器学习·语言模型·自然语言处理