深度学习四大核心架构:神经网络(NN)、卷积神经网络(CNN)、循环神经网络(RNN)与Transformer全概述

🌰 知识点概述


🧠 核心区别对比表

特性 NN(全连接网络) CNN(卷积网络) RNN(循环网络) Transformer
输入类型 固定长度的结构化数据(如表格) 网格状数据(图像/音频) 时序数据(文本/时间序列) 长序列数据(文本/语音)
核心结构 全连接层 卷积层 + 池化层 循环单元(LSTM/GRU) 自注意力机制 + 位置编码
参数共享 ❌ 无 ✅ 卷积核共享(空间局部性) ✅ 循环权重共享(时序共享) ✅ 注意力权重动态分配
时序依赖处理 ❌ 忽略时序关系 ❌ 仅局部空间关系 ✅ 顺序处理(短期记忆依赖) 全局依赖(并行计算)
典型应用 房价预测/简单分类 图像分类/目标检测 文本生成/股票预测 机器翻译/文本摘要(如BERT)
训练效率 低效(参数爆炸) 高效(参数共享) 低效(顺序计算) 高效(并行计算)但内存消耗大
长序列处理 ❌ 不支持 ❌ 不支持 ❌ 梯度消失/遗忘早期信息 ✅ 自注意力直接关联任意位置
关键创新 基础神经元模型 局部感知/权重共享 时间步状态传递 多头注意力 + 位置编码

生活化案例理解

  1. NN

    类比 :盲人摸象,每个神经元独立感知全局特征

    局限:输入图像需展平为向量,丢失空间信息(如将28x28图片变成784维向量)

  2. CNN

    类比 :人类视觉系统,先识别边缘→形状→物体

    实战:用3x3卷积核扫描猫的图片,提取耳朵、胡须等局部特征

  3. RNN

    类比 :阅读理解,需记住前文才能理解后文

    痛点:输入句子"The cat sat on the mat",到第6个单词时可能已遗忘"cat"

  4. Transformer

    类比 :团队协作,每个单词直接关注全局上下文

    优势:处理句子"I arrived at the bank after crossing the river"时,"bank"可同时关注"river"(消除歧义)


🔑 选型指南

场景 推荐模型 理由
表格数据分类/回归 NN 结构简单,无需复杂特征提取
图像识别/目标检测 CNN 高效捕捉空间局部特征
短文本生成/时间序列预测 RNN(LSTM/GRU) 处理简单时序依赖
长文本翻译/文档摘要 Transformer 捕捉长距离依赖,并行计算高效
多模态数据(如图文匹配) Transformer+CNN 联合处理文本和图像特征
相关推荐
和鲸社区11 分钟前
《斯坦福CS336》作业1开源,从0手搓大模型|代码复现+免环境配置
人工智能·python·深度学习·计算机视觉·语言模型·自然语言处理·nlp
THMAIL1 小时前
深度学习从入门到精通 - LSTM与GRU深度剖析:破解长序列记忆遗忘困境
人工智能·python·深度学习·算法·机器学习·逻辑回归·lstm
Gyoku Mint1 小时前
NLP×第六卷:她给记忆加了筛子——LSTM与GRU的贴靠机制
人工智能·深度学习·神经网络·语言模型·自然语言处理·gru·lstm
ningmengjing_2 小时前
理解损失函数:机器学习的指南针与裁判
人工智能·深度学习·机器学习
THMAIL3 小时前
深度学习从入门到精通 - BERT与预训练模型:NLP领域的核弹级技术详解
人工智能·python·深度学习·自然语言处理·性能优化·bert
relis3 小时前
解密llama.cpp中的batch与ubatch:深度学习推理优化的内存艺术
深度学习·batch·llama
中國龍在廣州3 小时前
GPT-5冷酷操盘,游戏狼人杀一战封神!七大LLM狂飙演技,人类玩家看完沉默
人工智能·gpt·深度学习·机器学习·计算机视觉·机器人
山烛3 小时前
深度学习:CNN 模型训练中的学习率调整(基于 PyTorch)
人工智能·pytorch·python·深度学习·cnn·调整学习率
THMAIL4 小时前
深度学习从入门到精通 - 神经网络核心原理:从生物神经元到数学模型蜕变
人工智能·python·深度学习·神经网络·算法·机器学习·逻辑回归
小关会打代码4 小时前
深度学习之第八课迁移学习(残差网络ResNet)
人工智能·深度学习·迁移学习