2015Residual Networks(简称ResNet)

2015年,何凯明等人提出了一种新的神经网络结构Residual Networks(简称ResNet),在当年的ImageNet比赛中,在classification、detection、localization以及COCO的detection和segmentation任务上均获得第一名。同时,凯明大神发表的ResNet文章斩获了CVPR2016年的best paper,真tql。

论文链接:Deep Residual Learning for Image Recognition

代码链接:https://github.com/KaimingHe/deep-residual-networks

我们知道,网络的深度直接决定了网络的性能,往往更深的网络具有更强的表达能力。近年来随着GPU算力的大幅度提高,使得拥有大量参数的黑盒模型(深度学习)快速发展,从最初的LeNet->AlexNet->Vgg16...,似乎网络越来越深,精度也越来越好。但一些实验数据显示:当网络进一步加深,层数达到20层甚至100层时,更深的网络却表现出更高的误差,如下图所示:

相关推荐
咚咚王者6 小时前
人工智能之核心技术 深度学习 第七章 扩散模型(Diffusion Models)
人工智能·深度学习
逄逄不是胖胖6 小时前
《动手学深度学习》-60translate实现
人工智能·python·深度学习
koo3647 小时前
pytorch深度学习笔记19
pytorch·笔记·深度学习
哥布林学者8 小时前
吴恩达深度学习课程五:自然语言处理 第三周:序列模型与注意力机制(三)注意力机制
深度学习·ai
A先生的AI之旅8 小时前
2026-1-30 LingBot-VA解读
人工智能·pytorch·python·深度学习·神经网络
Learn Beyond Limits8 小时前
文献阅读:A Probabilistic U-Net for Segmentation of Ambiguous Images
论文阅读·人工智能·深度学习·算法·机器学习·计算机视觉·ai
下午写HelloWorld9 小时前
差分隐私深度学习(DP-DL)简要理解
人工智能·深度学习
deephub9 小时前
让 AI 智能体学会自我进化:Agent Lightning 实战入门
人工智能·深度学习·大语言模型·agent
Loo国昌9 小时前
【垂类模型数据工程】第四阶段:高性能 Embedding 实战:从双编码器架构到 InfoNCE 损失函数详解
人工智能·后端·深度学习·自然语言处理·架构·transformer·embedding
Cemtery11610 小时前
Day40 早停策略和模型权重的保存
人工智能·python·深度学习·机器学习