卷积神经网络

一、为什么需要卷积

若参数过多,则内存装不下

比如图像大小1000*1000,那么输入层神经元的数目就是10的6次方,全连接层的参数就是10的12次方,一层就是1万亿个参数。

二、卷积是怎么做的

把卷积核的每一个参数和图像中的位置进行相乘再求和得到输出。

图像具有区域性,这个连接就叫局部连接,这也是卷积的特点和优势,经过一层卷积之后提取了图像的高层特征。同时卷积时有参数共享的特性,图片具有位置不变性,比如汽车翻车照样可以识别,图像特征与位置无关,左边是脸右边也是脸。

步长变大,输出变小。

如果使用了padding,在最外面一圈加0,那么假设步长为1,那么输出的size不变。加几圈的padding和卷积核大小有关,如果是5*5那么就要加两圈:

相关推荐
Ki13811 分钟前
我的AI学习小结:从入门到放弃
人工智能·学习
迪三达3 分钟前
智能体交易员 - AI-Trader
人工智能
dog25010 分钟前
LLM(大语言模型)和高尔顿板
人工智能·语言模型·自然语言处理·高尔顿板
LaughingZhu20 分钟前
Product Hunt 每日热榜 | 2025-12-13
人工智能·经验分享·神经网络·搜索引擎·产品运营
Hello娃的20 分钟前
【量子力学】Hohenberg-Kohn 定理
人工智能·算法
学好statistics和DS26 分钟前
机器学习中所有可以调整的超参数(考试/自己调参用)
人工智能·机器学习
老马啸西风28 分钟前
成熟企业级技术平台 MVE-010-IGA(Identity Governance & Administration,身份治理与管理)平台
人工智能·深度学习·算法·职场和发展
老马啸西风41 分钟前
成熟企业级技术平台 MVE-010-app 管理平台
人工智能·深度学习·算法·职场和发展
●VON43 分钟前
小V健身助手开发手记(四):打造专属健康空间——以 PersonContent构建统一风格的个人中心
人工智能·学习·openharmony·开源鸿蒙·von