卷积神经网络

一、为什么需要卷积

若参数过多,则内存装不下

比如图像大小1000*1000,那么输入层神经元的数目就是10的6次方,全连接层的参数就是10的12次方,一层就是1万亿个参数。

二、卷积是怎么做的

把卷积核的每一个参数和图像中的位置进行相乘再求和得到输出。

图像具有区域性,这个连接就叫局部连接,这也是卷积的特点和优势,经过一层卷积之后提取了图像的高层特征。同时卷积时有参数共享的特性,图片具有位置不变性,比如汽车翻车照样可以识别,图像特征与位置无关,左边是脸右边也是脸。

步长变大,输出变小。

如果使用了padding,在最外面一圈加0,那么假设步长为1,那么输出的size不变。加几圈的padding和卷积核大小有关,如果是5*5那么就要加两圈:

相关推荐
苍何1 小时前
腾讯重磅开源!混元图像 3.0 图生图真香!
人工智能
千里马也想飞1 小时前
人工智能在医疗领域的应用与研究论文写作实操:AI辅助快速完成框架+正文创作
人工智能
Rorsion1 小时前
PyTorch实现二分类(单特征输出+单层神经网络)
人工智能·pytorch·分类
勾股导航1 小时前
K-means
人工智能·机器学习·kmeans
liliangcsdn1 小时前
Diff2Flow中扩散和流匹配的对齐探索
人工智能
SmartBrain1 小时前
战略洞察:以AI为代表的第四次工业革命
人工智能·语言模型·aigc
一个处女座的程序猿1 小时前
AI之Agent之VibeCoding:《Vibe Coding Kills Open Source》翻译与解读
人工智能·开源·vibecoding·氛围编程
Jay Kay1 小时前
GVPO:Group Variance Policy Optimization
人工智能·算法·机器学习
风指引着方向2 小时前
归约操作优化:ops-math 的 Sum/Mean/Max 实现
人工智能·wpf
机器之心2 小时前
英伟达世界模型再进化,一个模型驱动所有机器人!机器人的GPT时刻真正到来
人工智能·openai