[动手学习深度学习]26. 网络中的网络 NiN

前面的LeNet、AlexNet、VGG在设计上的共同之处在于:先以卷积层构成的模块充分抽取空间特征,再以全连接层构成的模块来输出分类结果

其中AlexNet和VGG对LeNet的改进主要在于如何对这两个模块价款(增加通道数)和加深

这一节的NiN提出另一个思路:串联多个由卷积层和"全连接"层构成的小网络来构建一个深层网络

(NiN现在用的不多,但是这里提出的思路用的很多)

全连接层的问题

前面几个网络都在最后用了比较大的全连接层,最后再通过一个全连接层进行输出

但是全连接层非常占用空间,网络的所有参数基本都在全连接层

  • 但是最大的问题是,他会带来过拟合

    假如用卷积层,参数个数=输入通道数*输出通道数*窗口的高*窗口的宽

    若用全连接层,参数个数=输入的所有像素*输出的所有像素*窗口的高*窗口的宽

    如上面LeNet:120是输出的隐藏层的大小,16是最后一个卷积层的输出通道数,5是压缩的大小

NiN块

  • 1个卷积层后跟2个全连接层(11的卷积层等价于是全连接层)
    步幅1,无填充,输出形状和卷积层输出一样,也不会改变通道数

    这里两个1
    1的卷积层,其实是当作全连接层用的,他唯一的作用是对每个通道进行混合

NiN架构

  • 无全连接层

  • 交替使用NiN块和步幅为2的最大池化层

    • 逐步减小高宽和增大通道数
  • 最后使用全局平均池化层得到输出

    • 全局平均池化层:池化层的高宽=输入的高宽 -> 取每一个通道的最大值
    • 输入通道数是类别数

    (如:若在最后的全局池化层输入的通道是1000的话,对每一个通道拿出一个值,把这个值当作这个类别的预测,再加上softmax就是类别的概率了)

所以最后也不需要使用全连接层->这是一个非常极端的设计

总结

  • NiN块使用卷积层+2个11卷积层
    1
    1的卷积层充当全连接层,对每个像素增加了非线性
  • NiN使用全局平均池化层来代替VGG和AlexNet中的全连接层
    • 不容易过拟合,更少的参数个数

所以NiN相对于前面结构比较简单,参数个数非常少(因为没有全连接层)

相关推荐
CoovallyAIHub1 天前
仿生学突破:SILD模型如何让无人机在电力线迷宫中发现“隐形威胁”
深度学习·算法·计算机视觉
CoovallyAIHub1 天前
从春晚机器人到零样本革命:YOLO26-Pose姿态估计实战指南
深度学习·算法·计算机视觉
CoovallyAIHub1 天前
Le-DETR:省80%预训练数据,这个实时检测Transformer刷新SOTA|Georgia Tech & 北交大
深度学习·算法·计算机视觉
CoovallyAIHub1 天前
强化学习凭什么比监督学习更聪明?RL的“聪明”并非来自算法,而是因为它学会了“挑食”
深度学习·算法·计算机视觉
CoovallyAIHub1 天前
YOLO-IOD深度解析:打破实时增量目标检测的三重知识冲突
深度学习·算法·计算机视觉
用户1474853079742 天前
AI-动手深度学习环境搭建-d2l
深度学习
OpenBayes贝式计算2 天前
解决视频模型痛点,TurboDiffusion 高效视频扩散生成系统;Google Streetview 涵盖多个国家的街景图像数据集
人工智能·深度学习·机器学习
OpenBayes贝式计算2 天前
OCR教程汇总丨DeepSeek/百度飞桨/华中科大等开源创新技术,实现OCR高精度、本地化部署
人工智能·深度学习·机器学习
DianSan_ERP3 天前
电商API接口全链路监控:构建坚不可摧的线上运维防线
大数据·运维·网络·人工智能·git·servlet
在人间耕耘3 天前
HarmonyOS Vision Kit 视觉AI实战:把官方 Demo 改造成一套能长期复用的组件库
人工智能·深度学习·harmonyos