残差网络的介绍及ResNet-18的搭建(pytorch版)在深度学习领域,“更深的网络性能更好” 曾是研究者们的共识 —— 理论上,网络层数越多,能捕捉的特征越复杂,拟合能力也越强。但在 2015 年之前,当网络深度超过 20 层后,研究者们发现了一个致命问题:梯度消失 / 梯度爆炸导致模型无法训练,甚至出现 “深度退化” 现象(深层网络的测试误差反而比浅层网络更高)。而残差网络(Residual Network,简称 ResNet)的出现,彻底打破了这一困境,不仅让 1000 层以上的超深网络成为可能,更成为如今计算机视觉领域的 “基石架构” 之一。本篇博客主