Transformer参数量

**1. Token Embedding:**嵌入层的作用是将输入的词或标记转换为固定维度的向量。假设词汇表的大小为 V,嵌入向量的维度为 d_model。那么嵌入层的参数量就是 V × d_model

2. 位置编码

(1) Position Embeddings: max_position×d_model​

(2) Segment Embeddings: num_segments×d_model​

3. Multi-Head Attention: 多头自注意力机制由多个注意力头组成。每个注意力头包括三个线性变换,分别是查询(Query)、键(Key)和值(Value)的变换。假设有 h 个注意力头,每个头的维度为 d_k(通常 d_k = d_model / h)。

对于每个注意力头的查询、键和值的变换,参数量分别是 d_model × d_k。因为有 h 个注意力头,所以总共有 3 × h × d_model × d_k 参数用于这些线性变换。
**4. Layernorm:**残差连接和层归一化(Layer Normalization)部分。层归一化部分的参数量相对较少,每个层归一化有 2 × d_model 个参数(包括一个缩放参数和一个偏移参数)。

5.前馈网络: Transformer 中的前馈神经网络通常是位置 - 智能的,每个位置都有相同的结构。它包括两个线性变换,中间有一个激活函数(一般是 ReLU)。假设前馈神经网络的隐藏层维度为 d_ff。

第一个线性变换的参数量是 d_model × d_ff,第二个线性变换的参数量是 d_ff × d_model。因此,前馈神经网络的参数量为 d_model × d_ff + d_ff × d_model + d_model + d_ff (别忘记偏置项)

相关推荐
思绪无限4 小时前
YOLOv5至YOLOv12升级:木材表面缺陷检测系统的设计与实现(完整代码+界面+数据集项目)
人工智能·深度学习·目标检测·计算机视觉·木材表面缺陷检测
kishu_iOS&AI4 小时前
深度学习 —— 损失函数
人工智能·pytorch·python·深度学习·线性回归
好运的阿财4 小时前
OpenClaw工具拆解之canvas+message
人工智能·python·ai编程·openclaw·openclaw工具
TechubNews4 小时前
新火集团首席经济学家付鹏演讲——2026 年是 Crypto 加入到 FICC 资产配置框架元年
大数据·人工智能
蒸汽求职5 小时前
跨越 CRUD 内卷:半导体产业链与算力基建下的软件工程新生态
人工智能·科技·面试·职场和发展·软件工程·制造
DeepModel5 小时前
通俗易懂讲透 Q-Learning:从零学会强化学习核心算法
人工智能·学习·算法·机器学习
聊点儿技术5 小时前
LLM数据采集如何突破AI反爬?——用IP数据接口实现进阶
人工智能·数据分析·产品运营·ip·电商·ip地址查询·ip数据接口
小兵张健5 小时前
一场大概率没拿到 offer 的面试,让我更坚定去做喜欢的事
人工智能·面试·程序员
2501_940041745 小时前
AI创建小游戏指令词
人工智能·游戏·prompt
AC赳赳老秦5 小时前
OpenClaw二次开发实战:编写专属办公自动化技能,适配个性化需求
linux·javascript·人工智能·python·django·测试用例·openclaw