现代神经网络总结(AlexNet VGG GoogleNet ResNet的区别与改进)

VGG NIN GoogleNet

1.VGG,NIN,GoogleNet的块结构图对比(注意:无AlexNet)

这些块带来的区别与细节

复制代码
AlexNet未使用块,主要对各个层进行了解:
卷积:捕捉特征
relu:增强非线性
池化层:减少计算量
norm:规范数据分布
全连接层:分类


VGG块的改善(对比AlexNet):
1.使用VGG块,更加的符合封装思想
2.VGG块使用更小的卷积核,可以捕捉更多细节
3.因为不断累加VGG块的原因,使得VGG可以比AlexNet更深
4.输入输出形状更加有规律

NIN块的改善(对比VGG):
1.训练的参数更少,且捕捉了更深的特征(使用了1x1卷积)
2.减少了模型中的参数数量(全局平均池化层)
原因:参数共享(可以查看参考视频,方便理解)

Googlenet(对比VGG):
1.带来了多种卷积对应的多种特征(既不同尺度下的特征)(同一层内并行地应用多种卷积核尺寸和池化操作)

3.7 特征图尺寸计算与参数共享_哔哩哔哩_bilibili

2.代码对比

AlexNet:

复制代码
代码块:(卷积+最大池化层)
    nn.Conv2d(1, 96, kernel_size=11, stride=4, padding=1), nn.ReLU(),
    nn.MaxPool2d(kernel_size=3, stride=2)

输出:(全连接分类)
	nn.Flatten(),
    nn.Linear(6400, 4096), nn.ReLU()

VGG

复制代码
代码块:(n层卷积层+1层最大池化层)
       nn.Conv2d(in_channels, out_channels,kernel_size=3, padding=1)
       nn.ReLU()
       nn.MaxPool2d(kernel_size=2,stride=2)
输出:(全连接层)
	nn.Flatten(),
    nn.Linear(6400, 4096), nn.ReLU()

NIN

复制代码
代码块:(卷积层+2个1x1卷积核组成的卷积层)
        nn.Conv2d(in_channels, out_channels, kernel_size, strides, padding),nn.ReLU(),
        nn.Conv2d(out_channels, out_channels, kernel_size=1), nn.ReLU(),
        nn.Conv2d(out_channels, out_channels, kernel_size=1), nn.ReLU()

输出:(NIN块+最大池化层+flatten)
  nin_block(384, 10, kernel_size=3, strides=1, padding=1), 
  nn.AdaptiveAvgPool2d((1, 1)), 
  nn.Flatten()

GoogleNet

复制代码
代码块:(线路1+线路2+线路3+线路4的结果横向拼接)
torch.cat((p1, p2, p3, p4), dim=1)

输出:(最后是全连接层)
net = nn.Sequential(b1, b2, b3, b4, b5, nn.Linear(1024, 10))

7.4. 含并行连结的网络(GoogLeNet) --- 动手学深度学习 2.0.0 documentation (d2l.ai)

注意:

复制代码
以上所有得到的的都是分类映射,一般要再经过一次softmax才能得到分类结果,但softmax一般包含再网络定义的损失函数中了 既:
loss = nn.CrossEntropyLoss()时 softmax会被自动调用

ResNet

在上面三层神经网络之后得到的疑惑

->神经网络越深,越复杂总能改进精度吗?

复制代码
如沐神的图,F1,F2的范围指的是对应网络的取值,f指的是真实值。
神经网络复杂度F1<F2,但是可以很明显看到F3没有F4复杂,但是F3离真实值更近。

所以答案是否定的


为了让神经网络越深,越复杂总能改进精度实现,如图2的思想就能满足,其实很简单:F2总是比F1取值范围大且F2包含F1就好了,既f(x)+x

ResNet的表现是:

复制代码
注意:
1.如果f(x)与x的通道数不同 使用1X1卷积来改变通道数
2.如果f(x)与x的高宽不同 使用padding=0来扩充高宽
相关推荐
芷栀夏44 分钟前
CANN ops-math:筑牢 AI 神经网络底层的高性能数学运算算子库核心实现
人工智能·深度学习·神经网络
A尘埃4 小时前
电子厂PCB板焊点缺陷检测(卷积神经网络CNN)
人工智能·神经网络·cnn
陈天伟教授5 小时前
人工智能应用- 语言处理:02.机器翻译:规则方法
人工智能·深度学习·神经网络·语言模型·自然语言处理·机器翻译
holeer7 小时前
【V2.0】王万良《人工智能导论》笔记|《人工智能及其应用》课程教材笔记
神经网络·机器学习·ai·cnn·nlp·知识图谱·智能计算
DatGuy8 小时前
Week 36: 量子深度学习入门:辛量子神经网络与物理守恒
人工智能·深度学习·神经网络
玄同7659 小时前
机器学习中的三大距离度量:欧式距离、曼哈顿距离、切比雪夫距离详解
人工智能·深度学习·神经网络·目标检测·机器学习·自然语言处理·数据挖掘
聆风吟º16 小时前
CANN runtime 实战指南:异构计算场景中运行时组件的部署、调优与扩展技巧
人工智能·神经网络·cann·异构计算
聆风吟º19 小时前
CANN runtime 全链路拆解:AI 异构计算运行时的任务管理与功能适配技术路径
人工智能·深度学习·神经网络·cann
爱吃泡芙的小白白1 天前
突破传统:CNN卷积层(普通/空洞)核心技术演进与实战指南
人工智能·神经网络·cnn·卷积层·空洞卷积·普通卷积
小瑞瑞acd1 天前
【小瑞瑞精讲】卷积神经网络(CNN):从入门到精通,计算机如何“看”懂世界?
人工智能·python·深度学习·神经网络·机器学习