ResNet学习笔记

一、residual结构

优点:
(1)超深的网络结构(突破1000层)
(2)提出residual模块
(3)使用Batch Normalization加速训练(丢弃dropout)
解决问题:
(1) 梯度消失和梯度爆炸
(2) 退化问题,即层数深效果反而不好
右图对比左图, 可以减少计算的参数
二、

option B 可以使实线部分的输入矩阵和输出矩阵shape不同
三、Batch Normalization

四、网络结构图

相关推荐
GeeJoe19 分钟前
凡人炼丹传之 · 我让 AI 帮我训练了一个 AI
人工智能·机器学习·llm
hhj123k22 分钟前
渗透作业3
网络·学习
心一信息23 分钟前
HCIE学习之路:一个NAT实验
学习·计算机网络·智能路由器
小和尚同志33 分钟前
Dify29. 为你的 Dify API 穿层衣服吧
人工智能·aigc
不会学习的小白O^O36 分钟前
神经网络----卷积层(Conv2D)
人工智能·深度学习·神经网络
bastgia40 分钟前
Transformer终结者?Google DeepMind新架构实现2倍推理速度和一半内存占用
人工智能·llm
努力一点9481 小时前
ubuntu22.04系统入门 linux入门(二) 简单命令 多实践以及相关文件管理命令
linux·运维·服务器·人工智能·gpu算力
蹦蹦跳跳真可爱5891 小时前
Python----MCP(MCP 简介、uv工具、创建MCP流程、MCP客户端接入Qwen、MCP客户端接入vLLM)
开发语言·人工智能·python·语言模型