面试题:大模型训练需要设置温度系数吗?

我整理好的1000+面试题,请看
大模型面试题总结-CSDN博客

或者

https://gitee.com/lilitom/ai_interview_questions/blob/master/README.md

最好将URL复制到浏览器中打开,不然可能无法直接打开


好了,我们今天针对上面的问题,

大模型训练需要设置温度系数吗?

那肯定是不需要的,当然,面试官会总推理的环节出发先问你推理这块需不需要设置温度系数,然后再过度到问你训练环节需不需要。其实在训练中,温度系数为1,可以理解为不需要设置。

我们直接打开千问3的源码看一看,https://github.com/huggingface/transformers/blob/52c5c6582bdef8bd0f0a9238c9d6703137a10583/src/transformers/models/qwen3/modeling_qwen3.py#L197

也即:

看到是没有温度的。

具体softmax是怎么算的可以看下面(对此知道的可以不用看了):

LLMs 几乎总是出于实际原因输出未缩放的 logits(原始分数),而不是直接输出概率。这只是意味着输出可以是负无穷到正无穷之间的任何值,而不是像概率那样在0到1之间,并且原始分数与其重要性成正比:例如,值100比值3重要得多。为了获得实际概率,这些原始分数随后使用 softmax 函数进行指数化和归一化:

其中下一个 token i 的概率 P(token_i) 是指数化的原始分数,归一化后除以所有不同可用 token 的所有指数化原始分数的总和。具体而言,在"I went to the park and saw a..."的例子中,我们可以计算 P(dog) 为:

指数化有几个实际用途:

  1. 指数化保证正值:由于概率必须是非负的且总和为1,指数化确保 softmax 函数的所有输出都是正值。

  2. 指数化增强差异:指数函数增长迅速,这意味着即使 logits 的微小差异也可能导致最终概率的显著差异。例如,如果一个 logit 比其他 logit 稍大,其指数化值将主导分母中的总和,导致该类别获得高得多的概率。例如,e^4 ≈ 54.6,而 e^4.1 ≈ 60.3。

相关推荐
爱吃的小肥羊17 分钟前
Anthropic今天杀疯了,Claude Code用户被大规模封号,中转站也顶不住了!
人工智能
卷福同学17 分钟前
【养虾日记】QClaw操作浏览器自动化发文
运维·人工智能·程序人生·自动化
dehuisun23 分钟前
国安部发布:“龙虾”(OpenClaw)安全养殖手册
人工智能
Echo_NGC223723 分钟前
【贝叶斯公式】从先验到后验的概率推演
人工智能·贝叶斯·概率论·扩散模型
Shining059627 分钟前
AI 编译器系列(七)《(MLIR)AscendNPU IR 编译堆栈》
人工智能·架构·mlir·infinitensor·hivm·ascendnpu ir
GJGCY35 分钟前
中小企业财务AI工具技术评测:四大类别架构差异与选型维度
大数据·人工智能·ai·架构·财务·智能体
weixin_Todd_Wong201036 分钟前
基于宠物行为识别在宠物医疗健康领域的应用
人工智能·宠物
luolai1 小时前
SpringAI调用本地RAG 启动报错 chromaDB 报错
人工智能
飞Link1 小时前
具身智能核心架构之 Python 行为树 (py_trees) 深度剖析与实战
开发语言·人工智能·python·架构
IT_陈寒1 小时前
JavaScript开发者必看:5个让你的代码性能翻倍的隐藏技巧
前端·人工智能·后端