论文阅读:2015ResNet深度残差网络(待补充)

top5错误率:每张图片算法都会给出它认为最可能的五个类别,五个里面有一个是正确则算法预测正确。

技术爆炸1:2012年,DL和CNN用于CV;技术爆炸2:2015年,超过人类水平,网络可以更深(从图像中提取到的特征层次越丰富)

看AlexNet,ZFNet,GoogLeNet(即inception v1,既实现了网络加深,又变宽),2014年VGG(所有卷积都是3*3卷积,每一个block中卷积核个数即featuremap通道个数一样,block逐渐变深通道数翻倍,featuremap尺寸减半,同一个block中featuremap的size和个数一样,卷积核个数一样),Inception

网络退化现象:56层的网络在训练集和测试集上的误差都比20层的要高,网络变深后性能不如浅层的网络(不是梯度消失(梯度消失指根本没有开始学习,更新迭代非常缓慢,但上图可以看出误差还在减小),不是梯度爆炸,不是过拟合(过拟合指训练集上误差低,测试集上误差高,但上图可以看出在训练集和测试集上误差都大))

主要贡献:resnet引入残差模块解决了网络退化现象

两条路:左边经过两层神经网络,右边将输入原封不动传到输出,最后将残差和恒等映射逐元素求和,再用非线性relu激活。神经网络只需要拟合在原来的恒等映射的基础上进行偏移和修改的残差F(x)(不会变差,大不了残差为0,输入输出一样)(恒等映射这一路的梯度是1,可以把底层信号传到深层,把深层梯度注入底层,防止梯度消失。)

resnet真正网络模型:很多个残差模块堆叠而成(152层), 使网络很深,解决网络退化问题

(所有卷积用3*3,下采样用步长为2的卷积)

解释:(神经网络的可解释性)

红线(预测值)加上偏差就可以尽可能的接近真实值(蓝点)

解决网络退化的原因:

优点

易于训练(恒等映射不增加计算量,最后加和计算量很小)

易于优化

网络更深

可迁移泛化(只要涉及机器学习,需要深度提取特征 )

红字待补充

参考1

相关推荐
lisw0511 小时前
SolidWorks:现代工程设计与数字制造的核心平台
人工智能·机器学习·青少年编程·软件工程·制造
学Linux的语莫11 小时前
机器学习数据处理
java·算法·机器学习
递归不收敛12 小时前
吴恩达机器学习课程(PyTorch适配)学习笔记:1.3 特征工程与模型优化
pytorch·学习·机器学习
小关会打代码13 小时前
深度学习之YOLO系列YOLOv1
人工智能·深度学习·yolo
一车小面包13 小时前
Transformer Decoder 中序列掩码(Sequence Mask / Look-ahead Mask)
人工智能·深度学习·transformer
B站_计算机毕业设计之家14 小时前
机器学习实战项目:Python+Flask 汽车销量分析可视化系统(requests爬车主之家+可视化 源码+文档)✅
人工智能·python·机器学习·数据分析·flask·汽车·可视化
CV-杨帆15 小时前
论文阅读:arxiv 2025 Scaling Laws for Differentially Private Language Models
论文阅读·人工智能·语言模型
渡我白衣15 小时前
深度学习入门(一)——从神经元到损失函数,一步步理解前向传播(下)
人工智能·深度学习·神经网络
小虎鲸0017 小时前
PyTorch的安装与使用
人工智能·pytorch·python·深度学习
lucky_syq17 小时前
解锁特征工程:机器学习的秘密武器
人工智能·机器学习