AI-大语言模型LLM-Transformer架构5-残差连接与前馈网络

目的

为避免一学就会、一用就废,这里做下笔记

说明

  1. 本文内容紧承前文-Transformer架构1-整体介绍Transformer架构4-多头注意力、掩码注意力、交叉注意力,欲渐进,请循序
  2. 本文重点介绍Transformer架构中的残差连接与前馈网络,它们在编码器堆栈和解码器堆栈中都有用到

残差连接

  • 残差连接的详细内容,在前文-残差网络中已经提及。
  • 简单讲,残差连接是一种技术手段,为了解决极深网络中的梯度消失和网络退化问题,降低优化难度,为深层网络的训练效果托底
  • 残差连接的核心,是让网络从学习完整的目标映射到学习一个残差,这样有价值的浅层信息不至于在网络的层层传递中丢失。
  • 上图中,1-5号残差连接后,分别对应一个Add & Norm模块,以1号残差连接对应的Add & Norm模块为例详细说明。
    1、Add操作是残差连接的一部分,它把嵌入层的输出矩阵X注意力层的输出矩阵Z 相加,以确保后续层工作时,不会丢失浅层X的信息
    2、Norm操作是进行层归一化,归一化的作用:
    • 1、提高稳定性:稳定数值范围(限制个别极端值的影响)
    • 2、提升效率:加速收敛

前馈网络

  • 前馈网络就是前文-神经网络中最常见的基础神经网络,也称多层感知机(MLP)、全连接网络。
  • 前馈:工作时,只有前向计算,没有循环或反馈连接。与前馈神经网络并列的概念是循环神经网络如RNN

为什么要引入前馈网络

简单说:如果注意力层是让每个词"看到"其他词,那么前馈网络就是让每个词"深入思考"自己。两者结合,才能实现真正的理解。

  • 注意力层的计算是加权求和,是一种线性计算,而线性能够拟合的模式有限

  • 前馈网络弥注意力层的不足,使用的是非线性计算,使模型能够拟合更复杂的模式。

  • 两者结合效果如下:

    输入:[词1, 词2, 词3]

    注意力:词1←→词2←→词3(建立关系)

    前馈:词1→深加工,词2→深加工,词3→深加工

    输出:既有关系信息,又有深度特征

相关推荐
默默开发2 小时前
完整版:本地电脑 + WiFi 搭建 AI 自动炒股 + 自我学习系统
人工智能·学习·电脑
zzh940772 小时前
2026年AI文件上传功能实战:聚合站处理图片、PDF、PPT全指南
人工智能·pdf·powerpoint
新缸中之脑7 小时前
Paperless-NGX实战文档管理
人工智能
无极低码8 小时前
ecGlypher新手安装分步指南(标准化流程)
人工智能·算法·自然语言处理·大模型·rag
grant-ADAS9 小时前
记录paddlepaddleOCR从环境到使用默认模型,再训练自己的数据微调模型再推理
人工智能·深度学习
炎爆的土豆翔9 小时前
OpenCV 阈值二值化优化实战:LUT 并行、手写 AVX2 与 cv::threshold 性能对比
人工智能·opencv·计算机视觉
智能相对论9 小时前
从AWE看到海尔智慧家庭步步引领
人工智能
云和数据.ChenGuang9 小时前
魔搭社区 测试AI案例故障
人工智能·深度学习·机器学习·ai·mindstudio
小锋学长生活大爆炸9 小时前
【工具】无需Token!WebAI2API将网页AI转为API使用
人工智能·深度学习·chatgpt·openclaw
昨夜见军贴06169 小时前
AI审核赋能司法鉴定:IACheck如何保障刑事证据检测报告精准无误、经得起推敲?
人工智能