目录
[一、 什么是提示词工程?](#一、 什么是提示词工程?)
[二、 思维链:让 AI 学会"深思熟虑"](#二、 思维链:让 AI 学会“深思熟虑”)
[1. 核心原理](#1. 核心原理)
[2. 实战对比:标准提示 vs 思维链](#2. 实战对比:标准提示 vs 思维链)
[3. 如何实现 CoT?](#3. 如何实现 CoT?)
[LtM 的两大阶段](#LtM 的两大阶段)
一、 什么是提示词工程?
提示词工程是一门**开发和优化提示词(Prompt)**的学科。它的核心目标是引导大语言模型(LLM)产生高质量、符合预期的输出。
在工程化视角下,提示词不再是随意的自然语言,而是模型的**"接口定义"** 或**"任务书"**。一个好的提示词应当具备可复用性、结构化和稳定性。
提示词的六大核心要素
python
# 1. 角色 (Role)
你是一位 [在此处填入具体的专家角色,如:资深Python工程师 / 小红书文案专家 / 心理咨询师]。你拥有 [相关背景描述,如:10年高并发系统开发经验 / 擅长通过情感共鸣带货]。
# 2. 上下文 (Context)
我正在 [描述当前任务的背景,如:开发一个电商秒杀系统 / 为一款美白精华写推广文案]。
目前的现状/痛点是 [描述背景信息,如:现有代码存在线程安全问题 / 目标用户是25岁左右的白领女性]。
# 3. 指示 (Instruction)
请帮我完成以下任务:
1. [核心任务动词+对象,如:审查以下代码 / 撰写一篇种草笔记]
2. [具体步骤或要求,如:指出潜在Bug并给出修复方案 / 包含痛点场景和产品功效]
# 4. 输入数据 (Input)
以下是需要处理的具体内容:
<quark-code>
[在此处粘贴你的数据、文本、代码或文章]
</quark-code>
# 5. 例子 (Examples) - 可选,但强烈推荐
请参考以下示例的风格或逻辑:
【输入示例】:[示例输入]
【输出示例】:[示例输出]
# 6. 输出 (Output)
请按照以下要求输出结果:
- **格式**:[如:Markdown表格 / JSON格式 / 纯文本]
- **风格**:[如:专业严谨 / 幽默风趣 / 简洁明了]
- **约束**:[如:不要输出任何解释性文字,只返回代码 / 字数控制在300字以内]
大模型是强大的模式识别器。相比于用冗长的文字描述规则,直接提供几个输入-输出的示例(Few-shot),能让模型更快、更准确地理解你的意图,尤其是在处理格式转换、文本分类等任务时效果极佳。
二、 思维链:让 AI 学会"深思熟虑"
大模型在处理数学计算、逻辑推理等复杂任务时,往往会因为直接"蹦"出答案而犯错。思维链(Chain of Thought, CoT) 技术正是为了解决这一问题而生。
1. 核心原理
CoT 由 Jason Wei 等人在 2022 年提出。其核心思想是模拟人类的推理过程:在给出最终答案之前,先生成一系列中间推理步骤。
通过强制模型"想清楚再回答",CoT 将复杂问题拆解为逻辑关联的子步骤,显著提高了推理的准确性和可解释性。
2. 实战对比:标准提示 vs 思维链
让我们通过一个简单的数学问题来看看 CoT 的威力:
问题:罗杰有 5 个网球。他又买了 2 罐网球,每罐有 3 个。他现在一共有多少个网球?
❌ 标准提示(Standard Prompting)
输入 :罗杰有 5 个网球。他又买了 2 罐网球,每罐有 3 个。他现在一共有多少个网球?
模型输出 :答案是 11。
(注:虽然答案对了,但我们不知道它是怎么算的,且如果是更复杂的题目,模型很容易算错)
✅ 思维链提示(Chain-of-Thought Prompting)
输入 :罗杰有 5 个网球。他又买了 2 罐网球,每罐有 3 个。他现在一共有多少个网球?让我们一步一步思考。
模型输出:
- 罗杰最开始有 5 个球。
- 他买了 2 罐球,每罐 3 个,所以买了 2×3=62×3=6 个球。
- 现在总数是 5+6=115+6=11 。
- 答案是 11。
3. 如何实现 CoT?
零样本思维链
只需在提示词末尾加上一句魔法咒语------"Let's think step by step"(让我们一步一步思考)。
少样本思维链
在提示词中提供包含推理过程的示例(Few-shot),让模型模仿这种推理格式。
自洽性
自洽性的工作流程可以概括为"采样后聚合"(Sample-and-Aggregate),主要包含三个步骤:
-
生成多条推理路径
不再只让模型生成一次答案,而是利用思维链提示,并结合随机采样(例如,设置一个较高的温度值
temperature),让模型对同一个问题独立地生成多条(例如10条、20条甚至更多)不同的推理过程和答案。 -
提取并聚合答案
从所有生成的推理链中,提取出最终的答案。然后,通过投票机制来统计每个答案出现的频率。
-
选择最一致的答案
将出现次数最多的答案作为最终输出。这个被"多数路径"所支持的答案,被认为是自洽性最高、也最可能是正确的答案。
LtM 的两大阶段
LtM 通常包含两个明确的阶段,我们在写提示词时也要体现这两个阶段:
引导模型将原始复杂问题(Hard Question)拆解为一系列简单的子问题(Sub-questions)。
引导模型按照顺序回答这些子问题。关键在于:回答后续子问题时,必须利用前面子问题的答案作为上下文。