CoT 是 Chain-of-Thought(思维链)的缩写。
它是提示工程(Prompt Engineering)中最著名、最有效、也是最神奇的一种技术。
简单来说,CoT 就是强迫 AI 在给出最终答案之前,先把思考过程(中间步骤)写出来。
1. 🧠 核心比喻:心算 vs. 打草稿
为了理解 CoT,我们可以把 AI 想象成一个小学生,正在做一道复杂的数学题。
-
没有 CoT (Standard Prompting):
-
你问:"23 乘以 45 等于多少?"
-
AI (试图心算):它必须立刻说出答案。因为它没有"草稿纸",很容易算错或者瞎蒙。
-
结果:它可能会说"1025"(错的)。
-
-
使用了 CoT (Chain-of-Thought):
-
你问 :"23 乘以 45 等于多少?请一步步把计算过程写出来。"
-
AI (打草稿):
-
"首先,20 * 45 = 900"
-
"然后,3 * 45 = 135"
-
"最后,900 + 135 = 1035"
-
-
结果:它说"答案是 1035"(对的)。
-
CoT 的本质就是让 AI 把"快思考"(直觉)变成"慢思考"(逻辑推理)。
2. 🪄 那句著名的"魔法咒语"
在 CoT 被提出之前,人们为了让 AI 做对逻辑题,通常需要给它写好几个复杂的例子(Few-Shot)。
后来,东京大学的研究者发现了一个惊人的现象:你甚至不需要给例子,只需要在提示词的末尾加上一句简单的指令,AI 的智商就会瞬间暴涨。
这句"魔法咒语"是:
"Let's think step by step."
(让我们一步步地思考。)
这就是著名的 Zero-Shot CoT(零样本思维链)。仅仅加上这句话,就能让 AI 在数学和逻辑任务上的准确率大幅提升。
3. 🛠️ 为什么 CoT 能提高准确率?
这和 LLM 的底层原理(预测下一个 Token)有关。
-
直接回答:模型需要从问题直接跳跃到答案(A → Z)。中间的跨度太大,逻辑链条容易断裂,导致概率预测出错。
-
思维链回答:模型从问题生成第一步(A → B),再根据第一步生成第二步(B → C),最后得出答案(... → Z)。
-
每一步都很简单,出错概率低。
-
生成的中间步骤,变成了后续步骤的"上下文",引导模型走向正确的终点。
-
4. 🚀 CoT 的进化:OpenAI o1 模型
你可能听过 OpenAI 最新的 o1 (Strawberry) 模型。
o1 本质上就是把 CoT 技术"内化"了的模型。
-
以前 (GPT-4):你需要提示它"一步步思考",它才会展示推理过程。
-
现在 (o1):当你问它复杂问题时,它会自动在后台进行极长、极复杂的"思维链"推理(甚至会自我纠错、反复验证),思考几秒钟甚至几十秒,最后直接给你一个高质量的答案。
总结
CoT (思维链) 就是让 AI "慢下来,把逻辑写在纸上"。
它是目前解决 AI 数学差、逻辑弱、容易瞎编 这三大顽疾的最有效手段之一。