计算机视觉与深度学习-经典网络解析-ResNet-[北邮鲁鹏]

这里写目录标题

ResNet

ResNet(Residual Neural Network)是一种深度卷积神经网络模型,由Kaiming He等人在2015年提出。它的设计目的是解决深度神经网络训练过程中的梯度消失和梯度爆炸问题,以便训练更深的网络。

ResNet的成功证明了通过残差连接构建深层网络的有效性,为后续的模型设计提供了重要的启示和参考。

Resnet之后的网络应用在ImageNet之外的问题上,效果不一定好。

参考

ResNet论文:Deep Residual Learning for Image Recognition

产生背景

卷积网络深度越深,是否性能越好?

实验:持续向一个"基础"的卷积神经网络上面叠加更深的层数会发生什么?

贡献

残差模块

研究者考虑了这样一个问题:

浅层网络学习到了有效的分类模式后,如何向上堆积新层来建立更深的网络,使其满足即使不能提升浅层网络的性能,深层网络也不应降低性能。

提出了一种残差模块,通过堆叠残差模块可以构建任意深度的神经网络,而不会出现"退化"现象。

前向传递:原始信息一直被保存的很好,没有丢失信息,信号不容易衰减,前向信息流就很顺畅。

反向传递:即使F(x)=0,反向信息也可以传递。

类比锐化过程理解,原图x+细节F(x)=锐化H(x)。

残差结构

残差结构能够避免普通的卷积层堆叠存在信息丢失问题,保证前向信息流的顺畅。

残差结构能够应对梯度反传过程中的梯度消失问题,保证反向梯度流的通顺。

X之后的1×1卷积核:降维,减少3×3卷积的运算量。

conv(3×3)之后的1×1卷积核:升维(还原X的维度),为了实现X+F(X)。

批归一化

提出了批归一化方法来对抗梯度消失,该方法降低了网络训练过程对于权重初始化的依赖。

ReLU激活函数的初始化方法

提出了一种针对ReLU激活函数的初始化方法。

网络结构

为什么残差网络性能好?

一种典型的解释:残差网络可以看作是一种集成模型!


残差网络为何有效,都有哪些发展?

相关推荐
liulilittle14 小时前
OPENPPP2 1.0.0.26145 正式版发布:内核态 SYSNAT 性能飞跃 + Windows 平台避坑指南
开发语言·网络·c++·windows·通信·vrrp
贺小涛14 小时前
VictoriaMetrics深度解析
java·网络·数据库
龙文浩_14 小时前
AI深度学习中的自动微分与梯度下降机制解析
人工智能·深度学习
消失的旧时光-194314 小时前
C++ 网络服务端主线:从线程池到 Reactor 的完整路线图
开发语言·网络·c++·线程池·并发
STLearner14 小时前
WWW 2026 | 时空数据(Spatial Temporal)论文总结(交通预测,人群移动,轨迹表示,信控等)
大数据·论文阅读·人工智能·深度学习·机器学习·数据挖掘·自动驾驶
zl_dfq14 小时前
计算机网络 之 【TCP协议】(面向字节流、TCP异常情况、保活机制、文件与Socket的关系、网络协议栈的本质)
网络·计算机网络·tcp
龙文浩_14 小时前
AI深度学习中参数初始化方法及其与激活函数的协同优化
人工智能·深度学习·神经网络
多年小白14 小时前
2026年AI智能体“三国杀“:腾讯龙虾矩阵、阿里千问生态与字节豆包的技术架构全解析
网络·人工智能·科技·矩阵·notepad++
wanhengidc14 小时前
云手机 性能不受限 数据安全
服务器·网络·安全·游戏·智能手机
深念Y14 小时前
中兴BAV系列机顶盒WiFi天线改造记:从合盖信号差到外壳开孔外置
网络·wifi·天线·信号·diy·数码·机顶盒