大模型输入参数学习

在大语言模型(如Transformer-based模型)中,生成文本时通常会用到一些控制生成过程的参数。这些参数可以帮助调整生成文本的质量、多样性和可控性。以下是对几个参数的详细解释:

具体使用需要根据具体情况自行酌定

1. top_p (Nucleus Sampling)

  • 含义top_p 是一种采样策略,称为"核采样"(Nucleus Sampling) 或"Top-p 采样"。它选择累积概率分布中前 p% 的词作为候选词,然后从这些候选词中随机选择下一个词。
  • 作用 :通过设置 top_p,可以控制生成文本的多样性。较小的 top_p 值会导致更保守的选择,生成的文本可能更连贯但缺乏多样性;较大的 top_p 值会导致更多的随机性和多样性,但可能会引入不相关的词。
  • 取值范围 :0 < top_p ≤ 1。通常情况下,top_p 设置为 0.9 或 0.95 是比较常见的选择。

2. top_k (Top-k Sampling)

  • 含义top_k 是另一种采样策略,称为"Top-k 采样"。它选择概率最高的前 k 个词作为候选词,然后从这些候选词中随机选择下一个词。
  • 作用 :通过设置 top_k,可以控制生成文本的多样性。较小的 top_k 值会导致更保守的选择,生成的文本可能更连贯但缺乏多样性;较大的 top_k 值会导致更多的随机性和多样性,但可能会引入不相关的词。
  • 取值范围top_k 是一个正整数。通常情况下,top_k 设置为 50 或 100 是比较常见的选择。

3. temperature

  • 含义temperature 是一个控制生成文本随机性的参数。它用于调整输出概率分布的平滑度。
  • 作用 :较高的 temperature 值会使概率分布更加平坦,增加生成文本的随机性和多样性;较低的 temperature 值会使概率分布更加尖锐,减少生成文本的随机性,使生成的文本更加确定和连贯。
  • 取值范围temperature > 0。通常情况下,temperature 设置为 0.7 或 1.0 是比较常见的选择。

4. max_new_tokens

  • 含义max_new_tokens 是一个控制生成文本长度的参数。它指定了生成的新 tokens 的最大数量。
  • 作用 :通过设置 max_new_tokens,可以控制生成文本的长度。较大的值会导致生成更长的文本,而较小的值会导致生成较短的文本。
  • 取值范围max_new_tokens 是一个非负整数。具体取值取决于你的需求,例如生成一个段落可能需要 50 到 100 个 tokens,生成一篇文章可能需要几百个 tokens。

总结

  • top_ptop_k:用于控制生成文本的多样性和连贯性。较小的值会使生成的文本更连贯但缺乏多样性,较大的值会使生成的文本更随机和多样。
  • temperature:用于控制生成文本的随机性。较高的值增加随机性,较低的值增加确定性。
  • max_new_tokens:用于控制生成文本的长度。
相关推荐
索然无味io19 分钟前
XML外部实体注入--漏洞利用
xml·前端·笔记·学习·web安全·网络安全·php
AI量化投资实验室23 分钟前
deap系统重构,再新增一个新的因子,年化39.1%,卡玛提升至2.76(附python代码)
大数据·人工智能·重构
一弓虽29 分钟前
java基础学习——jdbc基础知识详细介绍
java·学习·jdbc·连接池
张登杰踩31 分钟前
如何快速下载Huggingface上的超大模型,不用梯子,以Deepseek-R1为例子
人工智能
AIGC大时代31 分钟前
分享14分数据分析相关ChatGPT提示词
人工智能·chatgpt·数据分析
TMT星球1 小时前
生数科技携手央视新闻《文博日历》,推动AI视频技术的创新应用
大数据·人工智能·科技
五味香1 小时前
Java学习,List 元素替换
android·java·开发语言·python·学习·golang·kotlin
AI视觉网奇1 小时前
图生3d算法学习笔记
人工智能
小锋学长生活大爆炸1 小时前
【DGL系列】dgl中为graph指定CSR/COO/CSC矩阵格式
人工智能·pytorch·深度学习·图神经网络·gnn·dgl
佛州小李哥2 小时前
在亚马逊云科技上用AI提示词优化功能写出漂亮提示词(上)
人工智能·科技·ai·语言模型·云计算·aws·亚马逊云科技