大模型输入参数学习

在大语言模型(如Transformer-based模型)中,生成文本时通常会用到一些控制生成过程的参数。这些参数可以帮助调整生成文本的质量、多样性和可控性。以下是对几个参数的详细解释:

具体使用需要根据具体情况自行酌定

1. top_p (Nucleus Sampling)

  • 含义top_p 是一种采样策略,称为"核采样"(Nucleus Sampling) 或"Top-p 采样"。它选择累积概率分布中前 p% 的词作为候选词,然后从这些候选词中随机选择下一个词。
  • 作用 :通过设置 top_p,可以控制生成文本的多样性。较小的 top_p 值会导致更保守的选择,生成的文本可能更连贯但缺乏多样性;较大的 top_p 值会导致更多的随机性和多样性,但可能会引入不相关的词。
  • 取值范围 :0 < top_p ≤ 1。通常情况下,top_p 设置为 0.9 或 0.95 是比较常见的选择。

2. top_k (Top-k Sampling)

  • 含义top_k 是另一种采样策略,称为"Top-k 采样"。它选择概率最高的前 k 个词作为候选词,然后从这些候选词中随机选择下一个词。
  • 作用 :通过设置 top_k,可以控制生成文本的多样性。较小的 top_k 值会导致更保守的选择,生成的文本可能更连贯但缺乏多样性;较大的 top_k 值会导致更多的随机性和多样性,但可能会引入不相关的词。
  • 取值范围top_k 是一个正整数。通常情况下,top_k 设置为 50 或 100 是比较常见的选择。

3. temperature

  • 含义temperature 是一个控制生成文本随机性的参数。它用于调整输出概率分布的平滑度。
  • 作用 :较高的 temperature 值会使概率分布更加平坦,增加生成文本的随机性和多样性;较低的 temperature 值会使概率分布更加尖锐,减少生成文本的随机性,使生成的文本更加确定和连贯。
  • 取值范围temperature > 0。通常情况下,temperature 设置为 0.7 或 1.0 是比较常见的选择。

4. max_new_tokens

  • 含义max_new_tokens 是一个控制生成文本长度的参数。它指定了生成的新 tokens 的最大数量。
  • 作用 :通过设置 max_new_tokens,可以控制生成文本的长度。较大的值会导致生成更长的文本,而较小的值会导致生成较短的文本。
  • 取值范围max_new_tokens 是一个非负整数。具体取值取决于你的需求,例如生成一个段落可能需要 50 到 100 个 tokens,生成一篇文章可能需要几百个 tokens。

总结

  • top_ptop_k:用于控制生成文本的多样性和连贯性。较小的值会使生成的文本更连贯但缺乏多样性,较大的值会使生成的文本更随机和多样。
  • temperature:用于控制生成文本的随机性。较高的值增加随机性,较低的值增加确定性。
  • max_new_tokens:用于控制生成文本的长度。
相关推荐
双向337 分钟前
私有化部署全攻略:开源模型本地化改造的性能与安全评测
人工智能
189228048618 分钟前
NY243NY253美光固态闪存NY257NY260
大数据·网络·人工智能·缓存
AI波克布林9 分钟前
发文暴论!线性注意力is all you need!
人工智能·深度学习·神经网络·机器学习·注意力机制·线性注意力
张子夜 iiii9 分钟前
机器学习算法系列专栏:主成分分析(PCA)降维算法(初学者)
人工智能·python·算法·机器学习
GIS宇宙12 分钟前
五分钟免费开启你的Vibe Coding之旅!
人工智能
用户51914958484513 分钟前
Three.js实例化技术:高效渲染数千3D对象
人工智能·aigc
weixin_4569042714 分钟前
一文讲清楚Pytorch 张量、链式求导、正向传播、反向求导、计算图等基础知识
人工智能·pytorch·学习
ciku26 分钟前
Spring AI Starter和文档解读
java·人工智能·spring
Blossom.11835 分钟前
把 AI 推理塞进「 8 位 MCU 」——0.5 KB RAM 跑通关键词唤醒的魔幻之旅
人工智能·笔记·单片机·嵌入式硬件·深度学习·机器学习·搜索引擎
小贤编程手记1 小时前
毛绒变装、吉卜力风...快手AI视频可灵为什么好用?
人工智能·数码产品