Transformer参数量

**1. Token Embedding:**嵌入层的作用是将输入的词或标记转换为固定维度的向量。假设词汇表的大小为 V,嵌入向量的维度为 d_model。那么嵌入层的参数量就是 V × d_model

2. 位置编码

(1) Position Embeddings: max_position×d_model​

(2) Segment Embeddings: num_segments×d_model​

3. Multi-Head Attention: 多头自注意力机制由多个注意力头组成。每个注意力头包括三个线性变换,分别是查询(Query)、键(Key)和值(Value)的变换。假设有 h 个注意力头,每个头的维度为 d_k(通常 d_k = d_model / h)。

对于每个注意力头的查询、键和值的变换,参数量分别是 d_model × d_k。因为有 h 个注意力头,所以总共有 3 × h × d_model × d_k 参数用于这些线性变换。
**4. Layernorm:**残差连接和层归一化(Layer Normalization)部分。层归一化部分的参数量相对较少,每个层归一化有 2 × d_model 个参数(包括一个缩放参数和一个偏移参数)。

5.前馈网络: Transformer 中的前馈神经网络通常是位置 - 智能的,每个位置都有相同的结构。它包括两个线性变换,中间有一个激活函数(一般是 ReLU)。假设前馈神经网络的隐藏层维度为 d_ff。

第一个线性变换的参数量是 d_model × d_ff,第二个线性变换的参数量是 d_ff × d_model。因此,前馈神经网络的参数量为 d_model × d_ff + d_ff × d_model + d_model + d_ff (别忘记偏置项)

相关推荐
闵孚龙14 小时前
Claude Code 缓存架构与断点设计全解析:Prompt Cache、上下文工程、Token 成本优化、AI Agent 长会话性能治理
人工智能·缓存·架构·prompt·claude
冬奇Lab14 小时前
一天一个开源项目(第102篇):NVIDIA Video Search and Summarization - 构建 GPU 加速的视觉智能体
人工智能·计算机视觉·开源
weixin_4280053014 小时前
C#调用 AI学习从0开始-第1阶段(基础与工具)-第3天FewShot少样本测试
人工智能·c#
xiaozhazha_14 小时前
技术解析:如何通过AI视频会议系统,解决业务协同与CRM间的“数据管道”问题
人工智能
2zcode14 小时前
基于深度学习的车辆品牌与类型智能识别系统设计与实现
人工智能·深度学习·智能交通
小小尚@14 小时前
AI 加持!Adobe Acrobat DC 2026 解锁 PDF 高效办公新体验
人工智能·pdf
NOCSAH14 小时前
统好 AI:AI 赋能生产制造,扎实推进智改数转
人工智能·制造
Soari15 小时前
终结 AI 乱跑(Harness Engineering):深度拆解 ralph-orchestrator,构建确定性的多智能体生命周期编排流
人工智能·生命周期管理·harnesseng·多智能体编排
IT_陈寒15 小时前
被JavaScript的隐式类型转换坑到怀疑人生,记录这次离谱经历
前端·人工智能·后端
victory043115 小时前
从 2025-05 至 2026-05-15按时间顺序整理的“主线模型/技术报告”时间线
人工智能