大模型输入参数学习

在大语言模型(如Transformer-based模型)中,生成文本时通常会用到一些控制生成过程的参数。这些参数可以帮助调整生成文本的质量、多样性和可控性。以下是对几个参数的详细解释:

具体使用需要根据具体情况自行酌定

1. top_p (Nucleus Sampling)

  • 含义top_p 是一种采样策略,称为"核采样"(Nucleus Sampling) 或"Top-p 采样"。它选择累积概率分布中前 p% 的词作为候选词,然后从这些候选词中随机选择下一个词。
  • 作用 :通过设置 top_p,可以控制生成文本的多样性。较小的 top_p 值会导致更保守的选择,生成的文本可能更连贯但缺乏多样性;较大的 top_p 值会导致更多的随机性和多样性,但可能会引入不相关的词。
  • 取值范围 :0 < top_p ≤ 1。通常情况下,top_p 设置为 0.9 或 0.95 是比较常见的选择。

2. top_k (Top-k Sampling)

  • 含义top_k 是另一种采样策略,称为"Top-k 采样"。它选择概率最高的前 k 个词作为候选词,然后从这些候选词中随机选择下一个词。
  • 作用 :通过设置 top_k,可以控制生成文本的多样性。较小的 top_k 值会导致更保守的选择,生成的文本可能更连贯但缺乏多样性;较大的 top_k 值会导致更多的随机性和多样性,但可能会引入不相关的词。
  • 取值范围top_k 是一个正整数。通常情况下,top_k 设置为 50 或 100 是比较常见的选择。

3. temperature

  • 含义temperature 是一个控制生成文本随机性的参数。它用于调整输出概率分布的平滑度。
  • 作用 :较高的 temperature 值会使概率分布更加平坦,增加生成文本的随机性和多样性;较低的 temperature 值会使概率分布更加尖锐,减少生成文本的随机性,使生成的文本更加确定和连贯。
  • 取值范围temperature > 0。通常情况下,temperature 设置为 0.7 或 1.0 是比较常见的选择。

4. max_new_tokens

  • 含义max_new_tokens 是一个控制生成文本长度的参数。它指定了生成的新 tokens 的最大数量。
  • 作用 :通过设置 max_new_tokens,可以控制生成文本的长度。较大的值会导致生成更长的文本,而较小的值会导致生成较短的文本。
  • 取值范围max_new_tokens 是一个非负整数。具体取值取决于你的需求,例如生成一个段落可能需要 50 到 100 个 tokens,生成一篇文章可能需要几百个 tokens。

总结

  • top_ptop_k:用于控制生成文本的多样性和连贯性。较小的值会使生成的文本更连贯但缺乏多样性,较大的值会使生成的文本更随机和多样。
  • temperature:用于控制生成文本的随机性。较高的值增加随机性,较低的值增加确定性。
  • max_new_tokens:用于控制生成文本的长度。
相关推荐
zxsz_com_cn2 小时前
设备预测性维护指的是什么 设备预测性维护传感器的作用
人工智能
可编程芯片开发2 小时前
基于PSO粒子群优化PI控制器的无刷直流电机最优控制系统simulink建模与仿真
人工智能·算法·simulink·pso·pi控制器·pso-pi
迎仔2 小时前
02-AI常见名词通俗解释
人工智能
程序员ken2 小时前
深入理解大语言模型(8) 使用 LangChain 开发应用程序之上下文记忆
人工智能·python·语言模型·langchain
魔力军2 小时前
Rust学习Day3: 3个小demo实现
java·学习·rust
Tadas-Gao2 小时前
深度学习与机器学习的知识路径:从必要基石到独立范式
人工智能·深度学习·机器学习·架构·大模型·llm
TTGGGFF2 小时前
从“千问送奶茶”看AI Agent落地:火爆、崩塌与进化方向
人工智能
OPEN-Source3 小时前
大模型实战:把自定义 Agent 封装成一个 HTTP 服务
人工智能·agent·deepseek
不懒不懒3 小时前
【从零开始:PyTorch实现MNIST手写数字识别全流程解析】
人工智能·pytorch·python
zhangshuang-peta3 小时前
从REST到MCP:为何及如何为AI代理升级API
人工智能·ai agent·mcp·peta