神经 网络

笔记记录
层次
复制代码
全连接层
卷积层
池化层
批量规范化层
激活函数
丢弃层
经典模型
复制代码
LeNet
AlexNet
VGG
Nin
GoogleNet
ResNet
DenseNet

神经网络层的主要类别

python 复制代码
    "基础结构层": ["全连接层", "卷积层", "池化层"],
    "序列处理层": ["RNN", "LSTM", "GRU", "Transformer"],
    "归一化层": ["BatchNorm", "LayerNorm", "InstanceNorm"],
    "正则化层": ["Dropout", "DropPath"],
    "注意力机制": ["自注意力", "交叉注意力", "多头注意力"],
    "嵌入层": ["词嵌入", "位置编码"],
    "激活函数": ["ReLU", "Sigmoid", "Tanh", "Softmax"],
    "特殊连接": ["残差连接", "跳跃连接"],
    "采样层": ["上采样", "下采样", "转置卷积"]

神经网络经典架构时间线

python 复制代码
    "2012": ["AlexNet"],           # 深度学习复兴
    "2014": ["VGG", "GoogLeNet"],  # 深度与宽度探索  
    "2015": ["ResNet", "UNet"],    # 残差连接,医学影像
    "2016": ["DenseNet"],          # 密集连接
    "2017": ["Transformer"],       # 注意力革命
    "2018": ["BERT", "GAN"],       # 预训练模型,生成模型
    "2020": ["Vision Transformer"] # CV的Transformer时代
架构选择指南
图像分类 ResNet, EfficientNet 平衡精度和效率
目标检测 YOLO, Faster R-CNN 实时vs高精度
语义分割 U-Net, DeepLab 医学影像,街景分割
机器翻译 Transformer, BERT 当前最优选择
文本生成 GPT系列 自回归语言模型
图像生成 GAN, VAE, Diffusion 高质量图像合成
语音识别 WaveNet, Conformer 时序信号处理
实用建议
  • 1.从预训练开始:使用在ImageNet等大数据集上预训练的模型
  • 2.迁移学习:针对特定任务微调最后几层
  • 3.架构搜索:使用EfficientNet等自动搜索的架构
  • 4.计算预算:根据可用资源选择合适规模的模型
  • 5.持续学习:关注新架构的发展,如Swin Transformer、ConvNeXt等
笔记记录
相关推荐
海边夕阳20063 小时前
【每天一个AI小知识】:什么是生成对抗网络?
人工智能·经验分享·深度学习·神经网络·机器学习·生成对抗网络
赵得C8 小时前
深度学习中的梯度问题与激活函数选择:从理论到实践
人工智能·深度学习
金融小师妹8 小时前
基于LSTM-GARCH混合模型:降息预期驱动金价攀升,白银刷新历史峰值的蒙特卡洛模拟验证
大数据·人工智能·深度学习·1024程序员节
晨非辰9 小时前
算法闯关日记 Episode :解锁链表「环形」迷局与「相交」奥秘
数据结构·c++·人工智能·后端·python·深度学习·神经网络
Aspect of twilight10 小时前
2D/3D bounding box计算方式详解
深度学习·算法题
仙女修炼史10 小时前
目标分割学习之U_net
人工智能·深度学习·学习
Dfreedom.10 小时前
机器学习模型误差深度解读:从三类来源到偏差-方差权衡
人工智能·深度学习·机器学习·误差·偏差方差权衡
MR_Colorful11 小时前
从零开始:Windows 深度学习GPU环境配置完整指南(以TensorFlow为例)
人工智能·深度学习
xwill*11 小时前
π0: A Vision-Language-Action Flow Model for General Robot Control
人工智能·深度学习
LDG_AGI11 小时前
【推荐系统】深度学习训练框架(七):PyTorch DDP(DistributedDataParallel)中,每个rank的batch数必须相同
网络·人工智能·pytorch·深度学习·机器学习·spark·batch