2015Residual Networks(简称ResNet)

2015年,何凯明等人提出了一种新的神经网络结构Residual Networks(简称ResNet),在当年的ImageNet比赛中,在classification、detection、localization以及COCO的detection和segmentation任务上均获得第一名。同时,凯明大神发表的ResNet文章斩获了CVPR2016年的best paper,真tql。

论文链接:Deep Residual Learning for Image Recognition

代码链接:https://github.com/KaimingHe/deep-residual-networks

我们知道,网络的深度直接决定了网络的性能,往往更深的网络具有更强的表达能力。近年来随着GPU算力的大幅度提高,使得拥有大量参数的黑盒模型(深度学习)快速发展,从最初的LeNet->AlexNet->Vgg16...,似乎网络越来越深,精度也越来越好。但一些实验数据显示:当网络进一步加深,层数达到20层甚至100层时,更深的网络却表现出更高的误差,如下图所示:

相关推荐
没学上了18 小时前
CNNMNIST
人工智能·深度学习
宝贝儿好18 小时前
【强化学习】第六章:无模型控制:在轨MC控制、在轨时序差分学习(Sarsa)、离轨学习(Q-learning)
人工智能·python·深度学习·学习·机器学习·机器人
AI产品备案19 小时前
生成式人工智能大模型备案制度与发展要求
人工智能·深度学习·大模型备案·算法备案·大模型登记
黑客思维者20 小时前
机器学习071:深度学习【卷积神经网络】目标检测“三剑客”:YOLO、SSD、Faster R-CNN对比
深度学习·yolo·目标检测·机器学习·cnn·ssd·faster r-cnn
北山小恐龙21 小时前
卷积神经网络(CNN)与Transformer
深度学习·cnn·transformer
汗流浃背了吧,老弟!21 小时前
为什么RAG在多轮对话中可能表现不佳?
人工智能·深度学习
糖葫芦君21 小时前
RQ-VAE(残差量化-变分自编码器)
人工智能·深度学习
yj_sharing1 天前
动手学深度学习softmax回归的笔记
笔记·深度学习·回归
温柔只给梦中人1 天前
深度学习:day03-04
人工智能·深度学习