第四章:大模型(LLM)】07.Prompt工程-(5)self-consistency prompt

第四章:大模型(LLM)

第七部分:Prompt 工程

第五节:Self-Consistency Prompt


1. 概念

Self-Consistency Prompt(自洽提示)是一种在思维链(Chain-of-Thought, CoT)基础上的改进方法。其核心思想是:

  • 不是依赖单一推理链的结果 ,而是让模型在同一个问题下生成多个推理路径

  • 通过对这些不同推理路径的最终答案进行投票或统计 ,选择出现频率最高、最合理的结果,提升整体推理的鲁棒性和准确性

这一方法尤其适用于复杂推理、多步计算的任务,如数学题、逻辑推理、因果推断等。


2. 工作流程

Self-Consistency Prompt 的基本流程如下:

  1. 设计带有思维链的 prompt

    引导模型逐步思考并输出推理过程。

  2. 采样多条推理路径

    • 设置模型在生成时使用采样方法(如 temperature > 0),让模型输出多种可能的推理链。

    • 例如同一道题,让模型生成 10 次推理过程,得到 10 个答案。

  3. 聚合结果

    • 收集每条推理链的最终答案。

    • 对答案进行多数投票,或选择最常见的结果作为最终答案。

  4. 输出最优解

    • 将结果返回给用户。

3. 示例

任务:计算"37 × 42"的结果。

  • 普通 CoT Prompt

    复制代码
    请一步步推理并计算:37 × 42

    可能输出:37 × 42 = 1554(正确)

    但有时会出现计算错误。

  • Self-Consistency Prompt

    1. 多次采样模型的推理路径:

      • 路径 1:37 × 42 = 1554 ✅

      • 路径 2:37 × 42 = 1454 ❌

      • 路径 3:37 × 42 = 1554 ✅

      • 路径 4:37 × 42 = 1554 ✅

      • 路径 5:37 × 42 = 1654 ❌

    2. 投票结果:

      • 1554 出现 3 次,为多数结果。
    3. 最终输出答案:1554


4. 优点与缺点
  • 优点

    • 提升推理任务的正确率

    • 减少单一路径计算错误的影响

    • 更符合人类"多次尝试再取最优解"的思维方式

  • 缺点

    • 计算成本增加,需要多次调用模型

    • 在简单问题上可能显得浪费算力


5. 应用场景
  • 数学计算与推理题

  • 逻辑推理/脑筋急转弯

  • 法律、医学等对准确性要求极高的领域

  • 需要避免单一推理链偏差的场景

相关推荐
冷雨夜中漫步1 天前
AI入门——什么是提示词(Prompt)以及如何写好提示词?
人工智能·prompt
放下华子我只抽RuiKe52 天前
从零构建高精度 AI Agent Skill:Tech Blog Generator 实战指南
人工智能·prompt·github·ai agent·skills·openclaw·development
冥王丁B2 天前
第31章 Prompt 与聊天模型笔记
笔记·python·prompt
GISer_Jing3 天前
两种AI交互方式深度解析——浏览器书签&插件
前端·人工智能·ai·prompt
华农DrLai3 天前
什么是Prompt注入攻击?为什么恶意输入能操控AI行为?
人工智能·深度学习·大模型·nlp·prompt
勇往直前plus3 天前
LangChain 动态系统提示词(@dynamic_prompt)深入解析
langchain·prompt
猫头虎3 天前
从零开始,一步步安装和配置OpenClaw汉化版详细安装指南
langchain·开源·prompt·github·aigc·ai编程·agi
华农DrLai3 天前
什么是Prompt模板?为什么标准化的格式能提高稳定性?
数据库·人工智能·gpt·nlp·prompt
华农DrLai3 天前
什么是自动Prompt优化?为什么需要算法来寻找最佳提示词?
人工智能·算法·llm·nlp·prompt·llama
华农DrLai4 天前
什么是Prompt工程?为什么提示词的质量决定AI输出的好坏?
数据库·人工智能·gpt·大模型·nlp·prompt