常见的卷积神经网络列举

经典的卷积神经网络(CNN)在深度学习发展史上具有重要地位,以下是一些里程碑式的模型及其核心贡献:


1. LeNet-5(1998)

  • 提出者:Yann LeCun
  • 特点
    • 首个成功应用于手写数字识别(MNIST)的CNN。
    • 结构:卷积层 + 池化层(当时用Subsampling) + 全连接层。
    • 使用Tanh激活函数,后续被ReLU取代。
  • 意义:奠定了CNN的基本结构。

2. AlexNet(2012)

  • 提出者:Alex Krizhevsky 等(Geoffrey Hinton团队)
  • 特点
    • 赢得ImageNet竞赛(ILSVRC 2012),top-5错误率大幅降低至15.3%。
    • 引入ReLU激活函数解决梯度消失。
    • 使用Dropout防止过拟合。
    • 首次采用GPU加速训练(双GPU并行)。
  • 意义:开启CNN在计算机视觉的黄金时代。

3. VGGNet(2014)

  • 提出者:牛津大学Visual Geometry Group
  • 特点
    • 核心思想:小卷积核(3×3)堆叠替代大卷积核,减少参数并增强非线性。
    • 常用版本:VGG-16 和 VGG-19(数字代表层数)。
    • 结构规整,易于迁移学习。
  • 意义:证明了深度的重要性,设计理念影响后续模型。

4. GoogLeNet(Inception v1, 2014)

  • 提出者:Google团队
  • 特点
    • 提出Inception模块:并行多尺度卷积(1×1、3×3、5×5)和池化,通过1×1卷积降维。
    • 引入辅助分类器缓解梯度消失。
    • 参数量仅为AlexNet的1/12,效率极高。
  • 后续改进:Inception v2/v3(BN、分解卷积)、v4(结合ResNet)。

5. ResNet(2015)

  • 提出者:何恺明等(Microsoft Research)
  • 特点
    • 残差连接(Residual Block):解决深层网络梯度消失问题,允许训练超过1000层的网络。
    • 赢得ILSVRC 2015,top-5错误率3.57%(超越人类水平)。
    • 变体:ResNeXt(分组卷积)、DenseNet(密集连接)。
  • 意义:成为现代CNN的基础结构。

6. 其他重要变体

  • MobileNet(2017):深度可分离卷积,轻量化设计。
  • EfficientNet(2019):复合缩放(深度/宽度/分辨率平衡)。
  • SENet(2017):通道注意力机制(Squeeze-and-Excitation模块)。

总结

模型 核心贡献 应用场景
LeNet-5 首个CNN结构 手写数字识别
AlexNet ReLU/Dropout/GPU训练 大规模图像分类
VGGNet 小卷积核堆叠 迁移学习基础
GoogLeNet Inception多尺度模块 高效计算
ResNet 残差连接解决深度问题 极深层网络设计

这些模型推动了CNN在图像分类、目标检测(如Faster R-CNN)、语义分割(如U-Net)等任务中的应用。

相关推荐
AI_Auto4 小时前
智能制造 - 人工智能、隐私保护、信息安全
人工智能·制造
一只乔哇噻4 小时前
java后端工程师+AI大模型开发进修ing(研一版‖day60)
java·开发语言·人工智能·学习·语言模型
千里码aicood4 小时前
计算机大数据、人工智能与智能系统开发定制开发
大数据·人工智能·深度学习·决策树·机器学习·森林树
币圈菜头4 小时前
【空投速递】GAEA项目解析:首个集成人类情感数据的去中心化AI训练网络
人工智能·web3·去中心化·区块链
Dcs6 小时前
你的 Prompt 都该重写?
人工智能·ai编程
木卫二号Coding6 小时前
第五十三篇-Ollama+V100+Qwen3:4B-性能
人工智能
飞哥数智坊6 小时前
AI 不只是聊天:聊聊我最近在做的新方向
人工智能
学生高德6 小时前
小模型结合大模型的加速方法关键笔记
人工智能·深度学习·机器学习
蓝耘智算6 小时前
GPU算力租赁与算力云平台选型指南:从需求匹配到成本优化的实战思路
大数据·人工智能·ai·gpu算力·蓝耘
liliangcsdn7 小时前
如何用bootstrap模拟估计pass@k
大数据·人工智能·bootstrap