【提示词工程和思维链的讲解】学习笔记

目录

[一、 什么是提示词工程?](#一、 什么是提示词工程?)

提示词的六大核心要素

[二、 思维链:让 AI 学会"深思熟虑"](#二、 思维链:让 AI 学会“深思熟虑”)

[1. 核心原理](#1. 核心原理)

[2. 实战对比:标准提示 vs 思维链](#2. 实战对比:标准提示 vs 思维链)

[3. 如何实现 CoT?](#3. 如何实现 CoT?)

零样本思维链

少样本思维链

自洽性

[LtM 的两大阶段](#LtM 的两大阶段)


一、 什么是提示词工程?

提示词工程是一门**开发和优化提示词(Prompt)**的学科。它的核心目标是引导大语言模型(LLM)产生高质量、符合预期的输出。

在工程化视角下,提示词不再是随意的自然语言,而是模型的**"接口定义"** 或**"任务书"**。一个好的提示词应当具备可复用性、结构化和稳定性。

提示词的六大核心要素
python 复制代码
# 1. 角色 (Role)
你是一位 [在此处填入具体的专家角色,如:资深Python工程师 / 小红书文案专家 / 心理咨询师]。你拥有 [相关背景描述,如:10年高并发系统开发经验 / 擅长通过情感共鸣带货]。

# 2. 上下文 (Context)
我正在 [描述当前任务的背景,如:开发一个电商秒杀系统 / 为一款美白精华写推广文案]。
目前的现状/痛点是 [描述背景信息,如:现有代码存在线程安全问题 / 目标用户是25岁左右的白领女性]。

# 3. 指示 (Instruction)
请帮我完成以下任务:
1. [核心任务动词+对象,如:审查以下代码 / 撰写一篇种草笔记]
2. [具体步骤或要求,如:指出潜在Bug并给出修复方案 / 包含痛点场景和产品功效]

# 4. 输入数据 (Input)
以下是需要处理的具体内容:
<quark-code>
[在此处粘贴你的数据、文本、代码或文章]
</quark-code>

# 5. 例子 (Examples) - 可选,但强烈推荐
请参考以下示例的风格或逻辑:
【输入示例】:[示例输入]
【输出示例】:[示例输出]

# 6. 输出 (Output)
请按照以下要求输出结果:
- **格式**:[如:Markdown表格 / JSON格式 / 纯文本]
- **风格**:[如:专业严谨 / 幽默风趣 / 简洁明了]
- **约束**:[如:不要输出任何解释性文字,只返回代码 / 字数控制在300字以内]

大模型是强大的模式识别器。相比于用冗长的文字描述规则,直接提供几个输入-输出的示例(Few-shot),能让模型更快、更准确地理解你的意图,尤其是在处理格式转换、文本分类等任务时效果极佳。

二、 思维链:让 AI 学会"深思熟虑"

大模型在处理数学计算、逻辑推理等复杂任务时,往往会因为直接"蹦"出答案而犯错。思维链(Chain of Thought, CoT) 技术正是为了解决这一问题而生。

1. 核心原理

CoT 由 Jason Wei 等人在 2022 年提出。其核心思想是模拟人类的推理过程:在给出最终答案之前,先生成一系列中间推理步骤。

通过强制模型"想清楚再回答",CoT 将复杂问题拆解为逻辑关联的子步骤,显著提高了推理的准确性和可解释性。

2. 实战对比:标准提示 vs 思维链

让我们通过一个简单的数学问题来看看 CoT 的威力:

问题:罗杰有 5 个网球。他又买了 2 罐网球,每罐有 3 个。他现在一共有多少个网球?

❌ 标准提示(Standard Prompting)

输入 :罗杰有 5 个网球。他又买了 2 罐网球,每罐有 3 个。他现在一共有多少个网球?
模型输出 :答案是 11。
(注:虽然答案对了,但我们不知道它是怎么算的,且如果是更复杂的题目,模型很容易算错)

✅ 思维链提示(Chain-of-Thought Prompting)

输入 :罗杰有 5 个网球。他又买了 2 罐网球,每罐有 3 个。他现在一共有多少个网球?让我们一步一步思考。
模型输出

  1. 罗杰最开始有 5 个球。
  2. 他买了 2 罐球,每罐 3 个,所以买了 2×3=62×3=6 个球。
  3. 现在总数是 5+6=115+6=11 。
  4. 答案是 11。
3. 如何实现 CoT?
零样本思维链

只需在提示词末尾加上一句魔法咒语------"Let's think step by step"(让我们一步一步思考)

少样本思维链

在提示词中提供包含推理过程的示例(Few-shot),让模型模仿这种推理格式。

自洽性

自洽性的工作流程可以概括为"采样后聚合"(Sample-and-Aggregate),主要包含三个步骤:

  1. 生成多条推理路径

    不再只让模型生成一次答案,而是利用思维链提示,并结合随机采样(例如,设置一个较高的温度值 temperature),让模型对同一个问题独立地生成多条(例如10条、20条甚至更多)不同的推理过程和答案。

  2. 提取并聚合答案

    从所有生成的推理链中,提取出最终的答案。然后,通过投票机制来统计每个答案出现的频率。

  3. 选择最一致的答案

    将出现次数最多的答案作为最终输出。这个被"多数路径"所支持的答案,被认为是自洽性最高、也最可能是正确的答案。

LtM 的两大阶段

LtM 通常包含两个明确的阶段,我们在写提示词时也要体现这两个阶段:

引导模型将原始复杂问题(Hard Question)拆解为一系列简单的子问题(Sub-questions)。

引导模型按照顺序回答这些子问题。关键在于:回答后续子问题时,必须利用前面子问题的答案作为上下文。


相关推荐
后藤十八里2 小时前
极验4消消乐验证码逆向笔记
笔记·爬虫·python
程序员雷欧2 小时前
大模型应用开发学习第五天
学习
我的Doraemon2 小时前
大模型是怎么被训练出来的?
人工智能·深度学习·机器学习
SomeB1oody2 小时前
【Python深度学习】1.1. 多层感知器MLP(人工神经网络)介绍
开发语言·人工智能·python·深度学习·机器学习
枕石 入梦2 小时前
【源码解析】OpenClaw 多渠道 AI 助手网关的架构设计与核心原理
人工智能·openclaw·小龙虾
不灭锦鲤2 小时前
网络安全学习(面试题)
学习·安全·web安全
babe小鑫2 小时前
2026大专商务英语毕业学习数据分析指南
学习·数据挖掘·数据分析
财经资讯数据_灵砚智能2 小时前
基于全球经济类多源新闻的NLP情感分析与数据可视化(日间)2026年4月6日
大数据·人工智能·python·信息可视化·语言模型·自然语言处理·ai编程
逻极2 小时前
Windows平台Ollama AMD GPU编译全攻略:基于ROCm 6.2的实战指南(附构建脚本)
人工智能·windows·gpu·amd·ollama