【提示词工程和思维链的讲解】学习笔记

目录

[一、 什么是提示词工程?](#一、 什么是提示词工程?)

提示词的六大核心要素

[二、 思维链:让 AI 学会"深思熟虑"](#二、 思维链:让 AI 学会“深思熟虑”)

[1. 核心原理](#1. 核心原理)

[2. 实战对比:标准提示 vs 思维链](#2. 实战对比:标准提示 vs 思维链)

[3. 如何实现 CoT?](#3. 如何实现 CoT?)

零样本思维链

少样本思维链

自洽性

[LtM 的两大阶段](#LtM 的两大阶段)


一、 什么是提示词工程?

提示词工程是一门**开发和优化提示词(Prompt)**的学科。它的核心目标是引导大语言模型(LLM)产生高质量、符合预期的输出。

在工程化视角下,提示词不再是随意的自然语言,而是模型的**"接口定义"** 或**"任务书"**。一个好的提示词应当具备可复用性、结构化和稳定性。

提示词的六大核心要素
python 复制代码
# 1. 角色 (Role)
你是一位 [在此处填入具体的专家角色,如:资深Python工程师 / 小红书文案专家 / 心理咨询师]。你拥有 [相关背景描述,如:10年高并发系统开发经验 / 擅长通过情感共鸣带货]。

# 2. 上下文 (Context)
我正在 [描述当前任务的背景,如:开发一个电商秒杀系统 / 为一款美白精华写推广文案]。
目前的现状/痛点是 [描述背景信息,如:现有代码存在线程安全问题 / 目标用户是25岁左右的白领女性]。

# 3. 指示 (Instruction)
请帮我完成以下任务:
1. [核心任务动词+对象,如:审查以下代码 / 撰写一篇种草笔记]
2. [具体步骤或要求,如:指出潜在Bug并给出修复方案 / 包含痛点场景和产品功效]

# 4. 输入数据 (Input)
以下是需要处理的具体内容:
<quark-code>
[在此处粘贴你的数据、文本、代码或文章]
</quark-code>

# 5. 例子 (Examples) - 可选,但强烈推荐
请参考以下示例的风格或逻辑:
【输入示例】:[示例输入]
【输出示例】:[示例输出]

# 6. 输出 (Output)
请按照以下要求输出结果:
- **格式**:[如:Markdown表格 / JSON格式 / 纯文本]
- **风格**:[如:专业严谨 / 幽默风趣 / 简洁明了]
- **约束**:[如:不要输出任何解释性文字,只返回代码 / 字数控制在300字以内]

大模型是强大的模式识别器。相比于用冗长的文字描述规则,直接提供几个输入-输出的示例(Few-shot),能让模型更快、更准确地理解你的意图,尤其是在处理格式转换、文本分类等任务时效果极佳。

二、 思维链:让 AI 学会"深思熟虑"

大模型在处理数学计算、逻辑推理等复杂任务时,往往会因为直接"蹦"出答案而犯错。思维链(Chain of Thought, CoT) 技术正是为了解决这一问题而生。

1. 核心原理

CoT 由 Jason Wei 等人在 2022 年提出。其核心思想是模拟人类的推理过程:在给出最终答案之前,先生成一系列中间推理步骤。

通过强制模型"想清楚再回答",CoT 将复杂问题拆解为逻辑关联的子步骤,显著提高了推理的准确性和可解释性。

2. 实战对比:标准提示 vs 思维链

让我们通过一个简单的数学问题来看看 CoT 的威力:

问题:罗杰有 5 个网球。他又买了 2 罐网球,每罐有 3 个。他现在一共有多少个网球?

❌ 标准提示(Standard Prompting)

输入 :罗杰有 5 个网球。他又买了 2 罐网球,每罐有 3 个。他现在一共有多少个网球?
模型输出 :答案是 11。
(注:虽然答案对了,但我们不知道它是怎么算的,且如果是更复杂的题目,模型很容易算错)

✅ 思维链提示(Chain-of-Thought Prompting)

输入 :罗杰有 5 个网球。他又买了 2 罐网球,每罐有 3 个。他现在一共有多少个网球?让我们一步一步思考。
模型输出

  1. 罗杰最开始有 5 个球。
  2. 他买了 2 罐球,每罐 3 个,所以买了 2×3=62×3=6 个球。
  3. 现在总数是 5+6=115+6=11 。
  4. 答案是 11。
3. 如何实现 CoT?
零样本思维链

只需在提示词末尾加上一句魔法咒语------"Let's think step by step"(让我们一步一步思考)

少样本思维链

在提示词中提供包含推理过程的示例(Few-shot),让模型模仿这种推理格式。

自洽性

自洽性的工作流程可以概括为"采样后聚合"(Sample-and-Aggregate),主要包含三个步骤:

  1. 生成多条推理路径

    不再只让模型生成一次答案,而是利用思维链提示,并结合随机采样(例如,设置一个较高的温度值 temperature),让模型对同一个问题独立地生成多条(例如10条、20条甚至更多)不同的推理过程和答案。

  2. 提取并聚合答案

    从所有生成的推理链中,提取出最终的答案。然后,通过投票机制来统计每个答案出现的频率。

  3. 选择最一致的答案

    将出现次数最多的答案作为最终输出。这个被"多数路径"所支持的答案,被认为是自洽性最高、也最可能是正确的答案。

LtM 的两大阶段

LtM 通常包含两个明确的阶段,我们在写提示词时也要体现这两个阶段:

引导模型将原始复杂问题(Hard Question)拆解为一系列简单的子问题(Sub-questions)。

引导模型按照顺序回答这些子问题。关键在于:回答后续子问题时,必须利用前面子问题的答案作为上下文。


相关推荐
star learning white8 小时前
线性代数3
人工智能·线性代数·机器学习
高工智能汽车8 小时前
中国首款5nm舱驾融合整车智能体芯片发布,地平线要做“物理AI时代的Wintel”
人工智能
Das18 小时前
JPEG压缩算法讲解
人工智能·计算机视觉
享客多网络8 小时前
2026年蓟州区GEO软件公司如何引领科技创新潮流
人工智能·python·科技
小曾不摆烂8 小时前
Agent经典论文——ReAct框架
人工智能·自然语言处理·大语言模型·agent
今天你TLE了吗8 小时前
HelloAgents学习:PartⅠChapterⅠ初识智能体
人工智能·笔记·学习·agent·智能体
小茴香3538 小时前
React学习笔记(一)
笔记·学习·react.js
我想我不够好。8 小时前
4.27消防监控学习 1.30min
学习
ai产品老杨8 小时前
告别协议碎片化:基于 GB28181 与 RTSP 的统一 AI 视频中台架构实现(附 Docker 源码交付方案)
人工智能·架构·音视频
即答侠8 小时前
实时 AI copilot 的 4 级 fallback 设计:用户感知 0 中断,SLA 从 92% 拉到 99.6%
前端·人工智能