从向量到文字:Transformer 的预测与输出(LM Head)

在经过 <math xmlns="http://www.w3.org/1998/Math/MathML"> N N </math>N 层 Decoder 的复杂思考(Attention, MLP, MoE)后,模型最终需要将抽象的数学向量转化为人类可读的文字。这个过程主要发生在模型的"输出头"------LM Head


一、 核心产物:隐藏状态 (Hidden States)

当 Token 序列流经最后一层 Decoder 层后,在该位置产出的结果是一个高维稠密向量 <math xmlns="http://www.w3.org/1998/Math/MathML"> h l a s t h_{last} </math>hlast。

  • 维度:通常与模型的隐藏层维度一致(如 Llama-3 8B 为 4096)。
  • 本质 :它是模型对当前上下文及其所有前文语义的最终浓缩总结

二、 第一步:线性投影(解压回词表)

隐藏状态 <math xmlns="http://www.w3.org/1998/Math/MathML"> h l a s t h_{last} </math>hlast 无法直接对应文字,必须通过一个巨大的线性变换矩阵 <math xmlns="http://www.w3.org/1998/Math/MathML"> W v o c a b W_{vocab} </math>Wvocab(即 LM Head)映射到词表空间。

  • 数学形式 : <math xmlns="http://www.w3.org/1998/Math/MathML"> L o g i t s = h l a s t ⋅ W v o c a b Logits = h_{last} \cdot W_{vocab} </math>Logits=hlast⋅Wvocab
  • 维度变换 :从 <math xmlns="http://www.w3.org/1998/Math/MathML"> d m o d e l d_{model} </math>dmodel (如 4096) 映射到 <math xmlns="http://www.w3.org/1998/Math/MathML"> V V </math>V (词表大小,如 128,256)。
  • 物理意义 :这一步是在计算当前语义向量与词表中每一个候选词(Token)的余弦相似度(未归一化分数)

三、 第二步:Softmax(概率化分布)

线性投影得到的 <math xmlns="http://www.w3.org/1998/Math/MathML"> L o g i t s Logits </math>Logits 是一堆实数,需要通过 Softmax 函数 转化为概率分布。

<math xmlns="http://www.w3.org/1998/Math/MathML"> P ( w i ) = e L i ∑ j = 1 V e L j \text{P}(w_i) = \frac{e^{L_i}}{\sum_{j=1}^{V} e^{L_j}} </math>P(wi)=∑j=1VeLjeLi

  • 结果 :词表中每一个词都会获得一个 <math xmlns="http://www.w3.org/1998/Math/MathML"> 0 0 </math>0 到 <math xmlns="http://www.w3.org/1998/Math/MathML"> 1 1 </math>1 之间的概率,且全词表概率总和为 <math xmlns="http://www.w3.org/1998/Math/MathML"> 100 % 100\% </math>100%。
  • 示例"苹果" (0.72), "手机" (0.15), "树上" (0.03)...

四、 第三步:采样策略(决定最终 Token)

模型并不总是选择概率最高的那一个,而是根据**解码策略(Decoding Strategy)**来挑选最终的 Token ID。

  1. Temperature (温度调节)
    • 低温度 (< 1.0):让分布更"尖锐",高概率词更突出,模型表现得更严谨、确定。
    • 高温度 (> 1.0):让分布更"平滑",增加低概率词被选中的机会,模型表现得更有"创造力"甚至胡言乱语。
  2. Top-P (核采样):只在累计概率达到设定阈值(如 0.9)的候选词集中进行采样,过滤掉概率极低的长尾噪声。
  3. Greedy Search (贪婪搜索):每次雷打不动地选概率最高的词。

五、 第四步:自回归循环 (Autoregression)

一旦确定了最终选出的 Token:

  1. 反向转换 :通过 Tokenizer 将选中的 ID 变回文本。
  2. 反馈机制:这个新生成的 Token 会被重新拼接到原始序列的末尾,再次输入模型。
  3. 循环往复 :模型重复上述过程,直到生成了特殊的终止符号 [EOS] (End Of String)。

这就是"自回归"的含义:模型每生成一个词,都是在为预测下一个词制造新的背景。


六、 总结:推理全链路

环节 输入 处理逻辑 输出
Decoder Token 序列 Attention + MLP/MoE Hidden States (语义总结)
LM Head Hidden States 线性投影 ( <math xmlns="http://www.w3.org/1998/Math/MathML"> W v o c a b W_{vocab} </math>Wvocab) Logits (词表得分)
Softmax Logits 归一化指数运算 Probability (概率分布)
Sampler Probability 根据温度/P值采样 Token ID (最终选定)

💡 深度洞察:计算开销

在推理时,由于词表 <math xmlns="http://www.w3.org/1998/Math/MathML"> V V </math>V 往往非常大(10万+),LM Head 的计算量在最后一层占据了很大比例。在分布式部署中,这部分计算通常会进行张量并行(Tensor Parallelism)拆分,以减轻显存负担。

相关推荐
reddingtons1 小时前
Scenario: SLG 地图铺到吐?搭建“轴测流水线”,量产建筑不重样
游戏·3d·prompt·aigc·设计师·游戏美术·slg
橙序员小站2 小时前
架构图不再手画:用 LikeC4 + AI,让架构“活”起来
后端·架构
JavaGuide2 小时前
又一款国产开源企业级文件管理系统诞生了!基于 Spring Boot 3.5.x + Sa-Token + MyBatis Flex
后端·github
大鹏19882 小时前
Go 实战 LeetCode 151:高效翻转字符串中的单词(含空格处理技巧)
后端
花果山总钻风3 小时前
SQLAlchemy各种排序示例
后端·python·中间件
uzong3 小时前
管理者不要被琐事耗尽心力
后端
最贪吃的虎3 小时前
windows上如何可视化访问并远程操作linux系统上运行的浏览器或者linux可视化桌面
java·linux·运维·windows·分布式·后端·架构
南囝coding3 小时前
Claude Code 作者再次分享 Anthropic 内部团队使用技巧
前端·后端