️ 大语言模型(LLM)常见参数配置指南
在使用提示词与 LLM 交互时,通过 API 或直接交互配置参数至关重要。调整这些设置能显著提高响应的可靠性,建议您根据具体用例进行实验,以找到最佳组合。
以下是各大 LLM 提供商中常见的设置项及其作用:
️ Temperature(温度)
核心作用: 控制模型输出的稳定性 与随机性。
- 低参数值: 模型返回的结果更加确定。适用于质量保障(QA)等任务,能促使模型基于事实返回更真实、简洁的结果。
- 高参数值: 模型返回的结果更具随机性。适用于诗歌生成等创造性任务,能带来更多样化或更具创意的产出。
建议: 对于需要准确事实的任务,请调低该值;对于创意类任务,适度调高。
Top_p(核采样)
核心作用: 与 Temperature 类似,用于控制结果的确定性,通常被称为**核采样(Nucleus Sampling)**技术。
- 工作原理: 只有词元集合中包含
top_p概率质量的词元才会被考虑。
-
- 调低数值: 仅选择最有信心的响应,适合需要准确答案的场景。
- 调高数值: 模型将考虑更多可能的词语(包括不太可能的词),从而导致输出更加多样化。
** 最佳实践:** 一般建议只调整 Temperature 或 Top_p 中的一个,无需同时调整两个参数。
Max Length(最大长度)
核心作用: 控制生成的 Token 数量上限。
- 主要用途:
-
- 防止模型生成冗长或不相关的响应。
- 有效控制 API 调用成本。
Stop Sequences(停止序列)
核心作用: 通过指定特定字符串来强制停止生成,是控制响应长度和结构的另一种有效方法。
- 示例: 您可以添加特定字符(如
"11")作为停止序列,以此告诉模型在生成列表时不超过 10 项(即生成到第 11 项标记前停止)。
Frequency Penalty(频率惩罚)
核心作用: 减少响应中单词的重复频率。
- 机制: 根据 Token 在响应和提示中已出现的次数成比例地进行惩罚。
- 效果: 惩罚值越高,某个词再次出现的可能性就越小。这能有效防止模型反复使用同一个词。
Presence Penalty(存在惩罚)
核心作用: 防止模型过于频繁地生成重复的词,侧重于是否重复而非重复次数。
- 机制: 对已出现的 Token 施加惩罚,无论该词出现了 2 次还是 10 次,惩罚力度是相同的。
- 应用场景:
-
- 调高数值: 适合希望模型生成多样化或创造性文本时。
- 调低数值: 适合希望模型生成更专注的内容时。
** 最佳实践:** 与 Temperature 和 Top_p 一样,一般建议只调整 Frequency Penalty 或 Presence Penalty 中的一个,避免同时调整。