论文精读ResNet: Deep Residual Learning for Image Recognition

1 基础背景

论文链接:https://arxiv.org/abs/1512.03385

Github链接:https://github.com/pytorch/vision/blob/master/torchvision/models/resnet.py

知乎讲解:ResNet论文笔记及代码剖析

2 Motivation

对于深度神经网络来说,深度对于模型性能至关重要。网络层数越深:

(1)越容易导致梯度消失或梯度爆炸 gradient vanishing/exploding;

(2)越容易出现性能恶化degradation:准确率达到峰值后迅速下降。

3 解决方法

把输入直接加到输出上,即shortcut connection。残差网络的意思是输出-输入的那部分网络模型。

对于神经网络来说,它对于相同映射identity mapping之外的扰动更容易学习,而不是identity mapping本身。相同映射就是【输入=输出】。

如果输入输出维度不同,可以采用zero-padding补零/projection映射,将其维度改变。

4 结论

shortcut connection没有引入新的参数,也没有额外增加计算复杂度。

在ImageNet中,不shortcut connection的网络(论文中叫plain network)34层的训练误差高于18层的,而残差版的34层低于18层。

验证误差同样很小,说明泛化能力较强。

残差网络初期收敛更快,最终收敛效果更好。

对于层数非常深(>50)的网络,可以采用瓶颈bottleneck模型,使用卷积将其维度先降低,提取关键特征,再升高,这样可以有效降低算力需求,由此可以诞生101层,152层的网络,其算力需求仍低于VGG。(具体为什么是101/152,作者并没有说明,李沐分析可能是调试调出来)

projection引入了新的参数,不适用于瓶颈模型,使用identity mapping更好。

5 知识补充

top1 error

将模型输出中最大概率的结果作为最终分类结果,计算得到的错误率,该指标衡量了模型的准确程度,同理还有top5 error;

相关推荐
Uzuki1 小时前
LLM 指标 | PPL vs. BLEU vs. ROUGE-L vs. METEOR vs. CIDEr
深度学习·机器学习·llm·vlm
2501_924890526 小时前
商超场景徘徊识别误报率↓79%!陌讯多模态时序融合算法落地优化
java·大数据·人工智能·深度学习·算法·目标检测·计算机视觉
SalvoGao7 小时前
空转学习 | cell-level 与 spot-level的区别
人工智能·深度学习·学习
什么都想学的阿超7 小时前
【大语言模型 15】因果掩码与注意力掩码实现:深度学习中的信息流控制艺术
人工智能·深度学习·语言模型
SHIPKING3939 小时前
【机器学习&深度学习】大模型分布式推理概述:从显存困境到高并发挑战的解决方案
人工智能·深度学习
没有梦想的咸鱼185-1037-166314 小时前
AI大模型支持下的:CMIP6数据分析与可视化、降尺度技术与气候变化的区域影响、极端气候分析
人工智能·python·深度学习·机器学习·chatgpt·数据挖掘·数据分析
灵智工坊LingzhiAI16 小时前
基于深度学习的中草药识别系统:从零到部署的完整实践
人工智能·深度学习
今天也要学习吖16 小时前
Azure TTS Importer:一键导入,将微软TTS语音接入你的阅读软件!
人工智能·学习·microsoft·ai·大模型·aigc·azure
SHIPKING3931 天前
【机器学习&深度学习】LMDeploy的分布式推理实现
人工智能·深度学习
兔子的倔强1 天前
Transformer在文本、图像和点云数据中的应用——经典工作梳理
人工智能·深度学习·transformer