第四章:大模型(LLM)】07.Prompt工程-(5)self-consistency prompt

第四章:大模型(LLM)

第七部分:Prompt 工程

第五节:Self-Consistency Prompt


1. 概念

Self-Consistency Prompt(自洽提示)是一种在思维链(Chain-of-Thought, CoT)基础上的改进方法。其核心思想是:

  • 不是依赖单一推理链的结果 ,而是让模型在同一个问题下生成多个推理路径

  • 通过对这些不同推理路径的最终答案进行投票或统计 ,选择出现频率最高、最合理的结果,提升整体推理的鲁棒性和准确性

这一方法尤其适用于复杂推理、多步计算的任务,如数学题、逻辑推理、因果推断等。


2. 工作流程

Self-Consistency Prompt 的基本流程如下:

  1. 设计带有思维链的 prompt

    引导模型逐步思考并输出推理过程。

  2. 采样多条推理路径

    • 设置模型在生成时使用采样方法(如 temperature > 0),让模型输出多种可能的推理链。

    • 例如同一道题,让模型生成 10 次推理过程,得到 10 个答案。

  3. 聚合结果

    • 收集每条推理链的最终答案。

    • 对答案进行多数投票,或选择最常见的结果作为最终答案。

  4. 输出最优解

    • 将结果返回给用户。

3. 示例

任务:计算"37 × 42"的结果。

  • 普通 CoT Prompt

    复制代码
    请一步步推理并计算:37 × 42

    可能输出:37 × 42 = 1554(正确)

    但有时会出现计算错误。

  • Self-Consistency Prompt

    1. 多次采样模型的推理路径:

      • 路径 1:37 × 42 = 1554 ✅

      • 路径 2:37 × 42 = 1454 ❌

      • 路径 3:37 × 42 = 1554 ✅

      • 路径 4:37 × 42 = 1554 ✅

      • 路径 5:37 × 42 = 1654 ❌

    2. 投票结果:

      • 1554 出现 3 次,为多数结果。
    3. 最终输出答案:1554


4. 优点与缺点
  • 优点

    • 提升推理任务的正确率

    • 减少单一路径计算错误的影响

    • 更符合人类"多次尝试再取最优解"的思维方式

  • 缺点

    • 计算成本增加,需要多次调用模型

    • 在简单问题上可能显得浪费算力


5. 应用场景
  • 数学计算与推理题

  • 逻辑推理/脑筋急转弯

  • 法律、医学等对准确性要求极高的领域

  • 需要避免单一推理链偏差的场景

相关推荐
liulilittle11 小时前
Prompt for OpenCode + CodeX-5.3:多个重型任务交付给AI自动化完成
运维·自动化·prompt
小程故事多_8011 小时前
从推理到智能体,大模型强化学习中信用分配机制的演进与突破
人工智能·prompt·aigc·ai编程
MRDONG115 小时前
Hermes Agent(爱马仕):一个会“成长”的 AI 智能体
人工智能·语言模型·自然语言处理·prompt
土豆~16 小时前
Claude Code源码学习—— Agent Prompt 设计
学习·prompt·claude code
wanghowie19 小时前
13.Prompt工程化:让AI从“能聊天”到“会干活”
人工智能·prompt
小程故事多_802 天前
深度拆解Hermes Agent,动态Prompt与Learning Loop架构的底层逻辑
人工智能·架构·prompt·aigc
小超同学你好2 天前
OpenClaw 深度解析与源代码导读 · 第5篇:Brain——Prompt/Context/Harness Engineering 与执行框架
人工智能·深度学习·语言模型·prompt
一叶知秋yyds3 天前
Prompt Engineering 完全指南:让大模型更懂你
prompt
deepdata_cn3 天前
提示工程(Prompt Engineering)
人工智能·prompt
njsgcs3 天前
固定几轮调用工具后,让ai根据执行内容自己改进prompt实现进化
人工智能·prompt