AI-大语言模型LLM-Transformer架构5-残差连接与前馈网络

目的

为避免一学就会、一用就废,这里做下笔记

说明

  1. 本文内容紧承前文-Transformer架构1-整体介绍Transformer架构4-多头注意力、掩码注意力、交叉注意力,欲渐进,请循序
  2. 本文重点介绍Transformer架构中的残差连接与前馈网络,它们在编码器堆栈和解码器堆栈中都有用到

残差连接

  • 残差连接的详细内容,在前文-残差网络中已经提及。
  • 简单讲,残差连接是一种技术手段,为了解决极深网络中的梯度消失和网络退化问题,降低优化难度,为深层网络的训练效果托底
  • 残差连接的核心,是让网络从学习完整的目标映射到学习一个残差,这样有价值的浅层信息不至于在网络的层层传递中丢失。
  • 上图中,1-5号残差连接后,分别对应一个Add & Norm模块,以1号残差连接对应的Add & Norm模块为例详细说明。
    1、Add操作是残差连接的一部分,它把嵌入层的输出矩阵X注意力层的输出矩阵Z 相加,以确保后续层工作时,不会丢失浅层X的信息
    2、Norm操作是进行层归一化,归一化的作用:
    • 1、提高稳定性:稳定数值范围(限制个别极端值的影响)
    • 2、提升效率:加速收敛

前馈网络

  • 前馈网络就是前文-神经网络中最常见的基础神经网络,也称多层感知机(MLP)、全连接网络。
  • 前馈:工作时,只有前向计算,没有循环或反馈连接。与前馈神经网络并列的概念是循环神经网络如RNN

为什么要引入前馈网络

简单说:如果注意力层是让每个词"看到"其他词,那么前馈网络就是让每个词"深入思考"自己。两者结合,才能实现真正的理解。

  • 注意力层的计算是加权求和,是一种线性计算,而线性能够拟合的模式有限

  • 前馈网络弥注意力层的不足,使用的是非线性计算,使模型能够拟合更复杂的模式。

  • 两者结合效果如下:

    输入:[词1, 词2, 词3]

    注意力:词1←→词2←→词3(建立关系)

    前馈:词1→深加工,词2→深加工,词3→深加工

    输出:既有关系信息,又有深度特征

相关推荐
美酒没故事°1 天前
Open WebUI安装指南。搭建自己的自托管 AI 平台
人工智能·windows·ai
云烟成雨TD1 天前
Spring AI Alibaba 1.x 系列【6】ReactAgent 同步执行 & 流式执行
java·人工智能·spring
简简单单做算法1 天前
基于GA遗传优化的Transformer-LSTM网络模型的时间序列预测算法matlab性能仿真
深度学习·matlab·lstm·transformer·时间序列预测·ga遗传优化·电池剩余寿命预测
AI攻城狮1 天前
用 Obsidian CLI + LLM 构建本地 RAG:让你的笔记真正「活」起来
人工智能·云原生·aigc
鸿乃江边鸟1 天前
Nanobot 从onboard启动命令来看个人助理Agent的实现
人工智能·ai
lpfasd1231 天前
基于Cloudflare生态的应用部署与开发全解
人工智能·agent·cloudflare
俞凡1 天前
DevOps 2.0:智能体如何接管故障修复和基础设施维护
人工智能
comedate1 天前
[OpenClaw] GLM 5 关于电影 - 人工智能 - 的思考
人工智能·电影评价
财迅通Ai1 天前
6000万吨产能承压 卫星化学迎来战略窗口期
大数据·人工智能·物联网·卫星化学
liliangcsdn1 天前
Agent Memory智能体记忆系统的示例分析
数据库·人工智能·全文检索