神经网络常见层速查表

神经网络常见层速查表

本文总结了深度学习中常见的"层 (Layer)",包括简称、全称、使用场景和作用,便于快速学习。


🔹 1. 全连接层 (Fully Connected Layer)

  • 简称:FC / Dense / Linear
  • 全称:Fully Connected Layer
  • PyTorchnn.Linear(in_features, out_features)
  • 使用场景:通用任务(分类、回归、MLP)
  • 作用:输入和输出的每个节点都相连,适合通用函数拟合。

🔹 2. 卷积层 (Convolutional Layer)

  • 简称:Conv
  • 全称:Convolutional Layer
  • PyTorchnn.Conv1d, nn.Conv2d, nn.Conv3d
  • 使用场景:图像、视频、语音
  • 作用:用卷积核提取局部特征,权重共享,参数量少。

🔹 3. 池化层 (Pooling Layer)

  • 简称:Pooling
  • 全称:Pooling Layer
  • PyTorchnn.MaxPool2d, nn.AvgPool2d
  • 使用场景:CNN 中常见
  • 作用:缩小特征图尺寸,保留主要特征,降低计算量。

🔹 4. 循环层 (Recurrent Layer)

  • 简称:RNN 系列
  • 全称:Recurrent Neural Network Layer
  • PyTorchnn.RNN, nn.LSTM, nn.GRU
  • 使用场景:文本、语音、时间序列预测
  • 作用 :处理序列数据,记忆历史信息。
    • RNN: 基础循环网络
    • LSTM: Long Short-Term Memory,解决长依赖问题
    • GRU: Gated Recurrent Unit,简化版 LSTM

🔹 5. 归一化层 (Normalization Layer)

  • 简称:BN / LN / IN
  • 全称:Batch Normalization / Layer Normalization / Instance Normalization
  • PyTorchnn.BatchNorm1d, nn.LayerNorm, nn.InstanceNorm2d
  • 使用场景:各种深度学习模型
  • 作用:稳定训练,加快收敛。

🔹 6. 正则化层 (Regularization Layer)

  • 简称:Dropout
  • 全称:Dropout Layer
  • PyTorchnn.Dropout(p=0.5)
  • 使用场景:防止过拟合
  • 作用:训练时随机"丢弃"部分神经元连接。

🔹 7. 注意力层 (Attention Layer)

  • 简称:Attention
  • 全称:Attention Layer / Multi-Head Attention
  • PyTorchnn.MultiheadAttention
  • 使用场景:NLP,Transformer,LLM
  • 作用:让模型选择性关注输入的重要部分。

🔹 8. 嵌入层 (Embedding Layer)

  • 简称:Embedding
  • 全称:Embedding Layer
  • PyTorchnn.Embedding(num_embeddings, embedding_dim)
  • 使用场景:自然语言处理(词向量表示)
  • 作用:将离散的类别(如单词 ID)映射为稠密向量。

🔹 9. 上采样层 (Upsampling Layer)

  • 简称:Deconv / Transposed Conv
  • 全称:Upsampling Layer / Deconvolution Layer
  • PyTorchnn.ConvTranspose2d, nn.Upsample
  • 使用场景:生成模型(GAN)、图像分割 (U-Net)
  • 作用:扩大特征图尺寸,重建细节信息。

📌 总结

类别 简称 全称 使用场景 作用
全连接层 FC Fully Connected Layer 分类、回归 输入输出全连接
卷积层 Conv Convolutional Layer 图像、语音 提取局部特征
池化层 Pooling Pooling Layer CNN 降维、提取主要特征
循环层 RNN/LSTM/GRU Recurrent Neural Network Layer 序列数据 记忆历史信息
归一化层 BN/LN/IN Batch/Layer/Instance Norm 通用 稳定训练
正则化层 Dropout Dropout Layer 防过拟合 随机丢弃连接
注意力层 Attention Attention Layer NLP/Transformer 选择性关注
嵌入层 Embedding Embedding Layer NLP 类别转稠密向量
上采样层 Deconv Deconvolution Layer GAN/U-Net 放大特征图

✍️ 一句话记忆:

全连接最通用,卷积看图像,循环管时间,归一化保稳定,Dropout 防过拟合,注意力会聚焦,嵌入层懂语义,上采样能重建。

相关推荐
好奇龙猫27 分钟前
【AI学习-comfyUI学习-第三十节-第三十一节-FLUX-SD放大工作流+FLUX图生图工作流-各个部分学习】
人工智能·学习
沈浩(种子思维作者)35 分钟前
真的能精准医疗吗?癌症能提前发现吗?
人工智能·python·网络安全·健康医疗·量子计算
minhuan36 分钟前
大模型应用:大模型越大越好?模型参数量与效果的边际效益分析.51
人工智能·大模型参数评估·边际效益分析·大模型参数选择
Cherry的跨界思维42 分钟前
28、AI测试环境搭建与全栈工具实战:从本地到云平台的完整指南
java·人工智能·vue3·ai测试·ai全栈·测试全栈·ai测试全栈
MM_MS1 小时前
Halcon变量控制类型、数据类型转换、字符串格式化、元组操作
开发语言·人工智能·深度学习·算法·目标检测·计算机视觉·视觉检测
ASF1231415sd1 小时前
【基于YOLOv10n-CSP-PTB的大豆花朵检测与识别系统详解】
人工智能·yolo·目标跟踪
水如烟2 小时前
孤能子视角:“意识“的阶段性回顾,“感质“假说
人工智能
Carl_奕然2 小时前
【数据挖掘】数据挖掘必会技能之:A/B测试
人工智能·python·数据挖掘·数据分析
旅途中的宽~2 小时前
《European Radiology》:2024血管瘤分割—基于MRI T1序列的分割算法
人工智能·计算机视觉·mri·sci一区top·血管瘤·t1
岁月宁静2 小时前
当 AI 越来越“聪明”,人类真正的护城河是什么:智商、意识与认知主权
人工智能