面试-解码技术Decoding

1 概述


Next Token: 从生成的概率分布里面选择唯一Token。如何选择,则涉及Decoding技术。

2 Greedy Decoding

  • 优点: 简单易实现、计算量少,速度快;
  • 缺点: 缺乏多样性,无法回溯其他选择、容易陷入局部最优 (错过整体概率更高的句子)、容易陷入重复循环、不通顺


Beam Search的核心步骤:

好处: 能够求得整体序列的概率值,解决了重复循环不通顺陷入局部最优 这几个问题。
缺点: 无法及时 Decoding,耗时更长。
概述: 每一步的Token -> 整体序列的Token。


3 Top-K 采样

概述: Top-K采样是随机采样的一种优化策略。每个时间步,只保留概率最高的k个Token ,让模型只在这k个候选里进行随机抽取。与贪心解码(相当于k=1)相比,更能避免一味选最热门候选导致的重复或过度保守,也减少了从非常罕见词采样的风险。
例子:


缺点: 合适的 K 值很难定义,K 越大,效果不一定就越好。

4 Top-P 采样

概述:

例子:

5 Temperature 采样

Temperature (温度) 是最常与 Top-k / Top-p 一起使用的另一个调控参数。它通过对 logits 值进行缩放,改变分布的 "尖锐度" 或 "平坦度" 。令模型输出的 logits 向量为 z ,则普通 softmax 概率是:

相关推荐
逄逄不是胖胖1 小时前
《动手学深度学习》-49Style_Transfer实现
pytorch·python·深度学习
闻缺陷则喜何志丹1 小时前
【超音速专利 CN117058421A】基于多头模型的图像检测关键点方法、系统、平台及介质
人工智能·深度学习·计算机视觉·关键点·专栏·超音速
Hcoco_me2 小时前
大模型面试题91:合并访存是什么?原理是什么?
人工智能·深度学习·算法·机器学习·vllm
Pyeako10 小时前
深度学习--BP神经网络&梯度下降&损失函数
人工智能·python·深度学习·bp神经网络·损失函数·梯度下降·正则化惩罚
哥布林学者11 小时前
吴恩达深度学习课程五:自然语言处理 第二周:词嵌入(四)分层 softmax 和负采样
深度学习·ai
Yeats_Liao13 小时前
开源生态资源:昇腾社区ModelZoo与DeepSeek的最佳实践路径
python·深度学习·神经网络·架构·开源
不解风水15 小时前
《深度学习入门:基于 Python 的理论与实现》(斋藤康毅)
人工智能·python·深度学习
brent42315 小时前
DAY54 CBAM注意力
人工智能·深度学习·机器学习
Python算法实战15 小时前
《大模型面试宝典》(2026版) 正式发布!
人工智能·深度学习·算法·面试·职场和发展·大模型