ResNet学习笔记

一、residual结构

优点:
(1)超深的网络结构(突破1000层)
(2)提出residual模块
(3)使用Batch Normalization加速训练(丢弃dropout)
解决问题:
(1) 梯度消失和梯度爆炸
(2) 退化问题,即层数深效果反而不好
右图对比左图, 可以减少计算的参数
二、

option B 可以使实线部分的输入矩阵和输出矩阵shape不同
三、Batch Normalization

四、网络结构图

相关推荐
AI科技星几秒前
全域数学视角下N维广义数系的推广与本源恒等式构建【乖乖数学】
人工智能·机器学习·数学建模·数据挖掘
羊群智妍几秒前
2026 GEO监测工具|AI搜索优化技术方案与选型
笔记
qcx231 分钟前
拆解 Warp AI Agent(二):风险分级执行——Agent 如何做到安全并行、危险排队
人工智能·安全·ai·agent·源码解析·warp
小白蒋博客3 分钟前
【ai开发段永平投资理财的知识图谱网站】第一天:搭 Vite + Vue 项目,跑通 Hello World
vue.js·人工智能·trae
MediaTea3 分钟前
人工智能通识课:Scikit-learn 机器学习工具库
人工智能·python·机器学习·scikit-learn
AI木马人5 分钟前
13.人工智能实战:RAG 多轮对话越问越偏?Query Rewrite、历史压缩与会话记忆的工程化方案
人工智能·搜索引擎
maosheng11466 分钟前
RHCE的第一次笔记
服务器·网络·笔记
郝学胜-神的一滴8 分钟前
二分类任务核心:BCE 损失函数从原理到 PyTorch 实战
人工智能·pytorch·python·算法·机器学习·分类·数据挖掘
ZC跨境爬虫10 分钟前
跟着 MDN 学 HTML day_8:(高级文本语义标签+适配核心功底)
前端·css·笔记·ui·html
财经资讯数据_灵砚智能12 分钟前
基于全球经济类多源新闻的NLP情感分析与数据可视化(日间)2026年5月2日
人工智能·python·信息可视化·自然语言处理·ai编程