2015Residual Networks(简称ResNet)

2015年,何凯明等人提出了一种新的神经网络结构Residual Networks(简称ResNet),在当年的ImageNet比赛中,在classification、detection、localization以及COCO的detection和segmentation任务上均获得第一名。同时,凯明大神发表的ResNet文章斩获了CVPR2016年的best paper,真tql。

论文链接:Deep Residual Learning for Image Recognition

代码链接:https://github.com/KaimingHe/deep-residual-networks

我们知道,网络的深度直接决定了网络的性能,往往更深的网络具有更强的表达能力。近年来随着GPU算力的大幅度提高,使得拥有大量参数的黑盒模型(深度学习)快速发展,从最初的LeNet->AlexNet->Vgg16...,似乎网络越来越深,精度也越来越好。但一些实验数据显示:当网络进一步加深,层数达到20层甚至100层时,更深的网络却表现出更高的误差,如下图所示:

相关推荐
程序员清洒4 小时前
CANN模型安全:从对抗防御到隐私保护的全栈安全实战
人工智能·深度学习·安全
User_芊芊君子5 小时前
CANN_PTO_ISA虚拟指令集全解析打造跨平台高性能计算的抽象层
人工智能·深度学习·神经网络
HyperAI超神经5 小时前
在线教程|DeepSeek-OCR 2公式/表格解析同步改善,以低视觉token成本实现近4%的性能跃迁
开发语言·人工智能·深度学习·神经网络·机器学习·ocr·创业创新
空白诗5 小时前
CANN ops-nn 算子解读:Stable Diffusion 图像生成中的 Conv2D 卷积实现
深度学习·计算机视觉·stable diffusion
User_芊芊君子6 小时前
CANN图编译器GE全面解析:构建高效异构计算图的核心引擎
人工智能·深度学习·神经网络
爱吃大芒果6 小时前
CANN神经网络算子库设计思路:ops-nn项目的工程化实现逻辑
人工智能·深度学习·神经网络
哈__6 小时前
CANN加速VAE变分自编码器推理:潜在空间重构与编码解码优化
人工智能·深度学习·重构
觉醒大王6 小时前
哪些文章会被我拒稿?
论文阅读·笔记·深度学习·考研·自然语言处理·html·学习方法
禁默6 小时前
Ops-Transformer深入:CANN生态Transformer专用算子库赋能多模态生成效率跃迁
人工智能·深度学习·transformer·cann
杜子不疼.6 小时前
基于CANN GE图引擎的深度学习模型编译与优化技术
人工智能·深度学习