chat-gpt笔记:参数temperature与top_p

temperature

官方文档

temperature number or null Optional Defaults to 1

What sampling temperature to use, between 0 and 2. Higher values like 0.8 will make the output more random, while lower values like 0.2 will make it more focused and deterministic.

We generally recommend altering this or top_p but not both.
温度采样参数取值介于 0 和 2 之间。较高的值(如 0.8)将使输出更加随机,而较低的值(如 0.2)将使其更加集中和确定性。

我们通常建议此参数或top_p参数不要同时更改。

效果

随机性大可以理解为多次询问的回答多样性、回答更有创意、回答更有可能没有事实依据。随机性小可以理解为多次询问更有可能遇到重复的回答、回答更接近事实(更接近训练数据)。

作用机制

GPT 中的 temperature 参数调整模型输出的随机性。

下图显示不同温度值对单词出现在下一个位置的概率的影响:

top_p

官方文档

top_p number or null Optional Defaults to 1

An alternative to sampling with temperature, called nucleus sampling, where the model considers the results of the tokens with top_p probability mass. So 0.1 means only the tokens comprising the top 10% probability mass are considered.

We generally recommend altering this or temperature but not both.
有一种替代温度采样的方法,叫做核采样,模型会考虑概率质量在top_p内的tokens的结果。所以0.1意味着只有概率质量在前10%的tokens会被考虑。

我们通常建议此参数或temperature参数不要同时更改。

作用机制

top_p 参数接受的是一个累积概率,top_p 的大小影响到候选 token 的数量。

模型使用以下逻辑选择部分单词加入备选集合

  1. 对所有单词按照概率从大到小进行排序
  2. 将备选集合中的概率逐个相加,当超过top_n时停止处理后面的单词

假设有这几个单词可供选择,

单词 概率 累计概率
the 0.5 0.5
a 0.25 0.75
an 0.15 0.9
some 0.08 0.98
this 0.02 1

假设设定 top_p = 0.7 ,则备选集合为(the,a)

相关推荐
浅念-9 分钟前
C语言编译与链接全流程:从源码到可执行程序的幕后之旅
c语言·开发语言·数据结构·经验分享·笔记·学习·算法
The森34 分钟前
Linux IO 模型纵深解析 01:从 Unix 传统到 Linux 内核的 IO 第一性原理
linux·服务器·c语言·经验分享·笔记·unix
tq108638 分钟前
Skills 的问题与解决方案
笔记
三水不滴1 小时前
有 HTTP 了为什么还要有 RPC?
经验分享·笔记·网络协议·计算机网络·http·rpc
三块可乐两块冰1 小时前
【第二十九周】机器学习笔记三十
笔记
听麟2 小时前
HarmonyOS 6.0+ 跨端智慧政务服务平台开发实战:多端协同办理与电子证照管理落地
笔记·华为·wpf·音视频·harmonyos·政务
risc1234563 小时前
认识一个事物,需要哪些基本能力与要素?
笔记
firewood20243 小时前
共射三极管放大电路相关情况分析
笔记·学习
Hello_Embed3 小时前
libmodbus STM32 主机实验(USB 串口版)
笔记·stm32·学习·嵌入式·freertos·modbus
risc1234564 小时前
思维脚手架
笔记