chat-gpt笔记:参数temperature与top_p

temperature

官方文档

temperature number or null Optional Defaults to 1

What sampling temperature to use, between 0 and 2. Higher values like 0.8 will make the output more random, while lower values like 0.2 will make it more focused and deterministic.

We generally recommend altering this or top_p but not both.
温度采样参数取值介于 0 和 2 之间。较高的值(如 0.8)将使输出更加随机,而较低的值(如 0.2)将使其更加集中和确定性。

我们通常建议此参数或top_p参数不要同时更改。

效果

随机性大可以理解为多次询问的回答多样性、回答更有创意、回答更有可能没有事实依据。随机性小可以理解为多次询问更有可能遇到重复的回答、回答更接近事实(更接近训练数据)。

作用机制

GPT 中的 temperature 参数调整模型输出的随机性。

下图显示不同温度值对单词出现在下一个位置的概率的影响:

top_p

官方文档

top_p number or null Optional Defaults to 1

An alternative to sampling with temperature, called nucleus sampling, where the model considers the results of the tokens with top_p probability mass. So 0.1 means only the tokens comprising the top 10% probability mass are considered.

We generally recommend altering this or temperature but not both.
有一种替代温度采样的方法,叫做核采样,模型会考虑概率质量在top_p内的tokens的结果。所以0.1意味着只有概率质量在前10%的tokens会被考虑。

我们通常建议此参数或temperature参数不要同时更改。

作用机制

top_p 参数接受的是一个累积概率,top_p 的大小影响到候选 token 的数量。

模型使用以下逻辑选择部分单词加入备选集合

  1. 对所有单词按照概率从大到小进行排序
  2. 将备选集合中的概率逐个相加,当超过top_n时停止处理后面的单词

假设有这几个单词可供选择,

单词 概率 累计概率
the 0.5 0.5
a 0.25 0.75
an 0.15 0.9
some 0.08 0.98
this 0.02 1

假设设定 top_p = 0.7 ,则备选集合为(the,a)

相关推荐
深度学习机器1 小时前
aisuite:统一的大模型SDK,简化LLM开发流程
chatgpt·llm·openai
AIbase20241 小时前
Gemini 2.5 Flash-Lite 与 GPT-5-mini:高性能低成本模型,如何选择?
前端·人工智能·gpt
Warren982 小时前
Appium学习笔记
android·windows·spring boot·笔记·后端·学习·appium
彤银浦2 小时前
PHP学习笔记1
笔记·学习·php
W-GEO3 小时前
GEO优化策略:AI搜索引擎的“动态响应”与GEO优化公司的实时优化能力
大数据·人工智能·chatgpt
GEO_JYB3 小时前
2025生成式引擎优化(GEO)技术研究报告:技术演进、行业应用与服务商能力选择指南
人工智能·chatgpt
ReedFoley14 小时前
【笔记】动手学Ollama 第七章 应用案例1 搭建本地AI Copilot编程助手
人工智能·笔记·copilot
长安即是故里15 小时前
Maxwell学习笔记
笔记·学习
咸甜适中17 小时前
rust语言 (1.88) egui (0.32.1) 学习笔记(逐行注释)(十四)垂直滚动条
笔记·学习·rust·egui
努力敲代码的小盆友17 小时前
[自用笔记]上传本地项目至github
笔记·github