第四章:大模型(LLM)】07.Prompt工程-(5)self-consistency prompt

第四章:大模型(LLM)

第七部分:Prompt 工程

第五节:Self-Consistency Prompt


1. 概念

Self-Consistency Prompt(自洽提示)是一种在思维链(Chain-of-Thought, CoT)基础上的改进方法。其核心思想是:

  • 不是依赖单一推理链的结果 ,而是让模型在同一个问题下生成多个推理路径

  • 通过对这些不同推理路径的最终答案进行投票或统计 ,选择出现频率最高、最合理的结果,提升整体推理的鲁棒性和准确性

这一方法尤其适用于复杂推理、多步计算的任务,如数学题、逻辑推理、因果推断等。


2. 工作流程

Self-Consistency Prompt 的基本流程如下:

  1. 设计带有思维链的 prompt

    引导模型逐步思考并输出推理过程。

  2. 采样多条推理路径

    • 设置模型在生成时使用采样方法(如 temperature > 0),让模型输出多种可能的推理链。

    • 例如同一道题,让模型生成 10 次推理过程,得到 10 个答案。

  3. 聚合结果

    • 收集每条推理链的最终答案。

    • 对答案进行多数投票,或选择最常见的结果作为最终答案。

  4. 输出最优解

    • 将结果返回给用户。

3. 示例

任务:计算"37 × 42"的结果。

  • 普通 CoT Prompt

    复制代码
    请一步步推理并计算:37 × 42

    可能输出:37 × 42 = 1554(正确)

    但有时会出现计算错误。

  • Self-Consistency Prompt

    1. 多次采样模型的推理路径:

      • 路径 1:37 × 42 = 1554 ✅

      • 路径 2:37 × 42 = 1454 ❌

      • 路径 3:37 × 42 = 1554 ✅

      • 路径 4:37 × 42 = 1554 ✅

      • 路径 5:37 × 42 = 1654 ❌

    2. 投票结果:

      • 1554 出现 3 次,为多数结果。
    3. 最终输出答案:1554


4. 优点与缺点
  • 优点

    • 提升推理任务的正确率

    • 减少单一路径计算错误的影响

    • 更符合人类"多次尝试再取最优解"的思维方式

  • 缺点

    • 计算成本增加,需要多次调用模型

    • 在简单问题上可能显得浪费算力


5. 应用场景
  • 数学计算与推理题

  • 逻辑推理/脑筋急转弯

  • 法律、医学等对准确性要求极高的领域

  • 需要避免单一推理链偏差的场景

相关推荐
Carl_奕然11 小时前
【大模型】Agent之:从Prompt到Context的演进之路
人工智能·python·语言模型·prompt·多模态
zzywxc78713 小时前
AI行业应用全景:从金融风控到智能制造的落地实践与技术解析
人工智能·深度学习·spring·机器学习·prompt·制造
zzywxc78720 小时前
AI赋能千行百业:金融、医疗、教育、制造业的落地实践与未来展望
java·人工智能·python·microsoft·金融·golang·prompt
zzywxc7871 天前
AI行业应用:金融、医疗、教育、制造业的落地实践与技术创新
人工智能·机器学习·金融·自动化·prompt·ai编程·xcode
工藤学编程1 天前
零基础学AI大模型之Prompt提示词工程
人工智能·prompt
shadowcz0072 天前
Claude 4.5用于AI编程-前端开发的Prompt工程#最佳实践指南
prompt·ai编程
西岭千秋雪_2 天前
Spring AI alibaba Prompt模板&Advisor自定义
java·人工智能·spring·prompt
CV实验室2 天前
NeurIPS 2025 | 北大等提出C²Prompt:解耦类内与类间知识,攻克FCL遗忘难题!
人工智能·计算机视觉·prompt·论文·cv
zzywxc7872 天前
大模型落地实践指南:从技术路径到企业级解决方案
java·人工智能·python·microsoft·golang·prompt
Zheng照邻、4 天前
VLM Prompt优化之 DynaPrompt(ICLR 2025)论文总结
人工智能·算法·语言模型·prompt·aigc