ResNet学习笔记

一、residual结构

优点:
(1)超深的网络结构(突破1000层)
(2)提出residual模块
(3)使用Batch Normalization加速训练(丢弃dropout)
解决问题:
(1) 梯度消失和梯度爆炸
(2) 退化问题,即层数深效果反而不好
右图对比左图, 可以减少计算的参数
二、

option B 可以使实线部分的输入矩阵和输出矩阵shape不同
三、Batch Normalization

四、网络结构图

相关推荐
985小水博一枚呀29 分钟前
【深度学习基础模型】神经图灵机(Neural Turing Machines, NTM)详细理解并附实现代码。
人工智能·python·rnn·深度学习·lstm·ntm
丝丝不是土豆丝29 分钟前
学习 CSS 新的属性 conic-gradient 实现环形进度条
学习
S hh1 小时前
【Linux】进程地址空间
java·linux·运维·服务器·学习
wusam1 小时前
螺蛳壳里做道场:老破机搭建的私人数据中心---Centos下Docker学习04(环境准备)
学习·docker·centos
攸攸太上1 小时前
Spring Gateway学习
java·后端·学习·spring·微服务·gateway
SEU-WYL1 小时前
基于深度学习的任务序列中的快速适应
人工智能·深度学习
OCR_wintone4212 小时前
中安未来 OCR—— 开启高效驾驶证识别新时代
人工智能·汽车·ocr
matlabgoodboy2 小时前
“图像识别技术:重塑生活与工作的未来”
大数据·人工智能·生活
Geek之路2 小时前
QT系统学习篇(1)
开发语言·qt·学习
最近好楠啊2 小时前
Pytorch实现RNN实验
人工智能·pytorch·rnn