第四章:大模型(LLM)】07.Prompt工程-(5)self-consistency prompt

第四章:大模型(LLM)

第七部分:Prompt 工程

第五节:Self-Consistency Prompt


1. 概念

Self-Consistency Prompt(自洽提示)是一种在思维链(Chain-of-Thought, CoT)基础上的改进方法。其核心思想是:

  • 不是依赖单一推理链的结果 ,而是让模型在同一个问题下生成多个推理路径

  • 通过对这些不同推理路径的最终答案进行投票或统计 ,选择出现频率最高、最合理的结果,提升整体推理的鲁棒性和准确性

这一方法尤其适用于复杂推理、多步计算的任务,如数学题、逻辑推理、因果推断等。


2. 工作流程

Self-Consistency Prompt 的基本流程如下:

  1. 设计带有思维链的 prompt

    引导模型逐步思考并输出推理过程。

  2. 采样多条推理路径

    • 设置模型在生成时使用采样方法(如 temperature > 0),让模型输出多种可能的推理链。

    • 例如同一道题,让模型生成 10 次推理过程,得到 10 个答案。

  3. 聚合结果

    • 收集每条推理链的最终答案。

    • 对答案进行多数投票,或选择最常见的结果作为最终答案。

  4. 输出最优解

    • 将结果返回给用户。

3. 示例

任务:计算"37 × 42"的结果。

  • 普通 CoT Prompt

    复制代码
    请一步步推理并计算:37 × 42

    可能输出:37 × 42 = 1554(正确)

    但有时会出现计算错误。

  • Self-Consistency Prompt

    1. 多次采样模型的推理路径:

      • 路径 1:37 × 42 = 1554 ✅

      • 路径 2:37 × 42 = 1454 ❌

      • 路径 3:37 × 42 = 1554 ✅

      • 路径 4:37 × 42 = 1554 ✅

      • 路径 5:37 × 42 = 1654 ❌

    2. 投票结果:

      • 1554 出现 3 次,为多数结果。
    3. 最终输出答案:1554


4. 优点与缺点
  • 优点

    • 提升推理任务的正确率

    • 减少单一路径计算错误的影响

    • 更符合人类"多次尝试再取最优解"的思维方式

  • 缺点

    • 计算成本增加,需要多次调用模型

    • 在简单问题上可能显得浪费算力


5. 应用场景
  • 数学计算与推理题

  • 逻辑推理/脑筋急转弯

  • 法律、医学等对准确性要求极高的领域

  • 需要避免单一推理链偏差的场景

相关推荐
Swizard4 天前
逐行解剖:扒开 Lovable Agent 源码,看顶级 AI 是如何“思考”与“动刀”的
ai·prompt
杜子不疼.6 天前
大模型应用开发实战:从 Prompt 工程到企业级落地全流程
prompt
觅特科技-互站6 天前
告别手动微调Prompt:DevOps用陌讯Skills重构AI运维工作流
运维·prompt·线性回归·kmeans·devops
小马_xiaoen6 天前
AI Prompt 工程完全指南:从入门到精通的提示词设计艺术
人工智能·prompt
Swizard7 天前
还在无脑堆砌提示词?三分钟看懂 Vercel v0 价值千万的 System Prompt 底层逻辑
ai·prompt
Loo国昌7 天前
【AI应用开发实战】Guardrail风险控制中间件:Agent系统的安全防线
人工智能·python·安全·自然语言处理·中间件·prompt
啦啦啦_99997 天前
SpringAI Alibaba(SAA) 之 Prompt
prompt
AC赳赳老秦7 天前
DeepSeek助力云原生AI降本:容器化部署资源优化与算力利用率提升技巧
网络·python·django·prompt·tornado·ai-native·deepseek
Loo国昌7 天前
【AI应用开发实战】09_Prompt工程与模板管理:构建可演进的LLM交互层
大数据·人工智能·后端·python·自然语言处理·prompt
minhuan7 天前
大模型应用:遗传算法 (GA)+大模型:自动化进化最优Prompt与模型参数.95
prompt·大模型应用·遗传算法 ga·prompt自动调优