第四章:大模型(LLM)
第七部分:Prompt 工程
第四节:思维链(CoT, Chain-of-Thought)Prompt
1. 什么是思维链(CoT)Prompt
思维链提示(Chain-of-Thought Prompting, 简称 CoT) 是一种引导大模型在回答前,展示中间推理步骤 的提示方式。
-
不同于 Zero-shot 或 Few-shot 直接产出答案,CoT 强调 逐步推理。
-
核心思想:让模型先思考,再回答。
例如:
Prompt:
小明有 3 个苹果,送给小红 2 个,还剩几个?请一步一步推理并回答。
模型输出:
小明原本有 3 个苹果。
送给小红 2 个后,剩下 1 个。
答案:1
2. CoT 的工作原理
大模型在推理过程中,本质上是通过概率预测下一个词。当用户直接提问时,模型可能会"跳过思考"直接生成答案,导致错误。
而 CoT Prompt 会明确告诉模型:
-
不要直接回答;
-
要分步骤"解释推理过程";
-
最后得出结论。
这样能显著提升模型在 数学推理、逻辑推理、多步骤任务 中的正确率。
3. CoT 的常见应用场景
-
数学计算 / 应用题
-
Prompt:
一个班有 40 个学生,其中 18 个是女生。男生有多少人?请一步一步推理。
-
输出:
学生总数是 40。 女生是 18。 男生 = 40 - 18 = 22。 答案:22
-
-
逻辑推理题
-
Prompt:
如果所有的猫都会爬树,而小花是一只猫,那么小花会不会爬树?请逐步推理。
-
-
阅读理解
-
Prompt:
根据以下文章,回答问题并给出推理过程。
-
-
多步骤规划
-
Prompt:
请帮我规划一次北京三日游,先分解任务,再给出每日行程。
-
4. CoT 的优势
-
提升准确性
- 特别是在复杂推理和数学题上效果显著。
-
增强可解释性
- 通过中间步骤,用户可以理解模型的思考路径。
-
适合复杂任务
- 需要多步才能完成的任务(规划、计算、逻辑分析)。
5. CoT 的局限性
-
输出冗长
- 推理步骤会占用更多 Token。
-
可能出现"虚假推理"
- 有时模型会编造逻辑,看似合理但实际错误。
-
推理链质量依赖模型能力
- 小模型的推理链可能混乱或错误。
6. 设计 CoT Prompt 的技巧
-
显式要求逐步推理
-
在指令中加入关键词:
-
"一步一步推理"
-
"请展示中间推理过程"
-
"请先分析,再回答"
-
-
-
结构化输出
- 要求模型用编号、分行方式清晰展示思考链。
-
结合 Few-shot CoT
- 给出几个带推理步骤的示例,让模型模仿。
-
限制长度
-
避免推理过程过长,加入约束:
- "请控制在 5 步以内"
-
7. 案例演示
任务:数学应用题
-
Prompt:
一个果园有 120 棵树,其中 1/3 是苹果树,其余是梨树。请逐步推理并计算出梨树的数量。
-
模型输出:
总共有 120 棵树。 苹果树数量 = 120 × 1/3 = 40。 梨树数量 = 120 - 40 = 80。 答案:80
8. 小结
-
CoT Prompt 的核心是:让模型展示思维链,而不是直接给答案。
-
它特别适合需要逻辑、推理和多步骤计算的任务。
-
优点:提高准确率、增强解释性;缺点:输出更长、可能虚假推理。
-
最佳实践:显式要求分步骤,结构化输出,必要时配合 Few-shot 示例。
在下一节中,我们将学习 思维链的进阶应用------自洽(Self-Consistency)Prompt,进一步提升推理的稳定性。