经典网络模型

Alexnet


VGG


VGG的启示

VGGNet采用了多次堆叠3x3的卷积核,这样做的目的是减少参数的数量。

例如,2个3x3的卷积核效果相当于1个5x5的卷积核效果,因为它们的感受野(输入图像上映射区域的大小)相同。但2个3x3卷积核的参数个数(18个)却比1个5x5(25个)的卷积核参数个数少。

类似地,3个3x3的卷积核相当于1个7x7的卷积核,而1个7x7的卷积核的参数个数为49,而3个3x3的卷积核的参数个数仅为27。

感受野


ResNet

为了解决深度神经网络存在的问题

· 层数越多,训练效果一定越好吗?

· 如何优化过深的神经网络?

· 如何避免梯度消失和梯度爆炸?

ResNet 即深度残差网络

ResNet使用了一种连接方式叫做"shortcut connection",顾名思义,shortcut就是"抄近道"的意思

ResNet模型引入残差网络结构,在两层或两层以上的节点两端添加了一条"捷径",这样一来,原来的输出F(x)就变成了F(x)+x

ResNet通过引入残差结构,我们就可以直接使用传统的反向传播对很深的神经网络进行训练,并且收敛速度快,误差小网络越深,梯度消失的现象就越来越明显,网络的训练效果也不好,这样的问题就称为"退化"

ResNet通过引入残差结构,很好地解决了"退化"问题,退化与过拟合都会使网络预测准确率降低,但两者并不是一回事

相关推荐
deephub20 分钟前
优化注意力层提升 Transformer 模型效率:通过改进注意力机制降低机器学习成本
人工智能·深度学习·transformer·大语言模型·注意力机制
搏博32 分钟前
神经网络问题之二:梯度爆炸(Gradient Explosion)
人工智能·深度学习·神经网络
KGback38 分钟前
【论文解析】HAQ: Hardware-Aware Automated Quantization With Mixed Precision
人工智能
电子手信1 小时前
知识中台在多语言客户中的应用
大数据·人工智能·自然语言处理·数据挖掘·知识图谱
不高明的骗子1 小时前
【深度学习之一】2024最新pytorch+cuda+cudnn下载安装搭建开发环境
人工智能·pytorch·深度学习·cuda
Chef_Chen1 小时前
从0开始学习机器学习--Day33--机器学习阶段总结
人工智能·学习·机器学习
搏博1 小时前
神经网络问题之:梯度不稳定
人工智能·深度学习·神经网络
Sxiaocai1 小时前
使用 PyTorch 实现并训练 VGGNet 用于 MNIST 分类
pytorch·深度学习·分类
GL_Rain1 小时前
【OpenCV】Could NOT find TIFF (missing: TIFF_LIBRARY TIFF_INCLUDE_DIR)
人工智能·opencv·计算机视觉
shansjqun1 小时前
教学内容全覆盖:航拍杂草检测与分类
人工智能·分类·数据挖掘