第四章:大模型(LLM)】07.Prompt工程-(5)self-consistency prompt

第四章:大模型(LLM)

第七部分:Prompt 工程

第五节:Self-Consistency Prompt


1. 概念

Self-Consistency Prompt(自洽提示)是一种在思维链(Chain-of-Thought, CoT)基础上的改进方法。其核心思想是:

  • 不是依赖单一推理链的结果 ,而是让模型在同一个问题下生成多个推理路径

  • 通过对这些不同推理路径的最终答案进行投票或统计 ,选择出现频率最高、最合理的结果,提升整体推理的鲁棒性和准确性

这一方法尤其适用于复杂推理、多步计算的任务,如数学题、逻辑推理、因果推断等。


2. 工作流程

Self-Consistency Prompt 的基本流程如下:

  1. 设计带有思维链的 prompt

    引导模型逐步思考并输出推理过程。

  2. 采样多条推理路径

    • 设置模型在生成时使用采样方法(如 temperature > 0),让模型输出多种可能的推理链。

    • 例如同一道题,让模型生成 10 次推理过程,得到 10 个答案。

  3. 聚合结果

    • 收集每条推理链的最终答案。

    • 对答案进行多数投票,或选择最常见的结果作为最终答案。

  4. 输出最优解

    • 将结果返回给用户。

3. 示例

任务:计算"37 × 42"的结果。

  • 普通 CoT Prompt

    复制代码
    请一步步推理并计算:37 × 42

    可能输出:37 × 42 = 1554(正确)

    但有时会出现计算错误。

  • Self-Consistency Prompt

    1. 多次采样模型的推理路径:

      • 路径 1:37 × 42 = 1554 ✅

      • 路径 2:37 × 42 = 1454 ❌

      • 路径 3:37 × 42 = 1554 ✅

      • 路径 4:37 × 42 = 1554 ✅

      • 路径 5:37 × 42 = 1654 ❌

    2. 投票结果:

      • 1554 出现 3 次,为多数结果。
    3. 最终输出答案:1554


4. 优点与缺点
  • 优点

    • 提升推理任务的正确率

    • 减少单一路径计算错误的影响

    • 更符合人类"多次尝试再取最优解"的思维方式

  • 缺点

    • 计算成本增加,需要多次调用模型

    • 在简单问题上可能显得浪费算力


5. 应用场景
  • 数学计算与推理题

  • 逻辑推理/脑筋急转弯

  • 法律、医学等对准确性要求极高的领域

  • 需要避免单一推理链偏差的场景

相关推荐
serve the people14 小时前
Prompt Serialization in LangChain
数据库·langchain·prompt
AI Echoes14 小时前
LangChain 使用语义路由选择不同的Prompt模板
人工智能·python·langchain·prompt·agent
Wilber的技术分享14 小时前
【大模型实战笔记 6】Prompt Engineering 提示词工程
人工智能·笔记·llm·prompt·大语言模型·提示词工程
小高不会迪斯科14 小时前
大话大模型应用(二)--让大模型听话:Prompt Engineering&Context Engineering
人工智能·prompt
serve the people19 小时前
Prompt Composition with LangChain’s PipelinePromptTemplate
java·langchain·prompt
喜欢吃豆19 小时前
从入门到精通:OpenAI Prompt Engineering 与 Prompt Caching 实战详解
prompt
xn123342 天前
Anaconda Prompt系统找不到指定路径
prompt
NEFU AB-IN2 天前
Prompt Gen Desktop 管理和迭代你的 Prompt!
java·jvm·prompt
bulucc2 天前
如何写prompt?prompt收集
prompt
serve the people2 天前
Partial Prompt Templates in LangChain
服务器·langchain·prompt