我们可以通过prompt获取大量的结果,提示词可以包含你传递到模型的指令或问题等信息,也可以包含其他详细信息,如上下文、输入或示例等。可以通过这些元素来更好地指导模型,并因此获得更好的结果。
简单来说就是: 怎么写好提示词,让模型输出我们想要的结果
提示词要素
适配多数场景Prompt 万能公式:(其中'目标'是必须的)
【角色】+【目标】+【上下文】+【约束】+【格式】+【示例(可选)】
角色: 为 AI 设定一个具体的 "角色或身份",让 AI 基于该角色的专业视角、语言风格输出内容。
目标 :想要模型执行的特定任务或指令。
上下文 : 告诉 AI "在什么背景/场景下"
约束 :约束条件不能做什么 / 必须满足什么
格式 :指定输出的类型或格式。
示例:让AI比葫芦画瓢
基础通用提示技术: 应对简单任务,确保 "输出不跑偏"
- 零样本提示
dart
核心: 无需给 AI 任何示例,直接通过 "指令 + 任务描述" 让 AI 完成任务。 依赖自身的预训练知识,
适用场景: 适用于AI已经掌握的相关知识活通用能力场景
例如: 简单分类(如 "判断以下句子是否为正面评价")、基础翻译(如 "将这段英文翻译成中文")、信息提取(如 "从这段文本中提取出时间和地点")。
- 少样本提示
dart
当任务较特殊(如小众领域分类、定制化格式),AI 仅凭常识难以精准响应时,提供 1-5 个 "示例",让 AI 通过模仿示例理解任务规则。
适用场景: 定制化分类(如 "按「科技产品 / 日用品 / 食品」给商品打标签")、格式迁移(如 "将「产品参数表」转化为「消费者易懂的优势点」")、风格模仿(如 "参考示例的幽默风格写一句广告语")。
例如:
- 指令结构化提示(Structured Prompting)
dart
核心逻辑:用清晰的 "框架/模板" 组织指令,明确任务的 "步骤、要求、输出格式",避免 AI 遗漏关键信息或输出混乱。
适用场景:多步骤任务(如 "先总结文本,再分析优缺点")、规范输出场景(如 "生成 PPT 大纲、会议纪要、数据报告")。
例如:
指令:"请按以下结构分析一篇职场干货文章,每部分内容不超过 200 字:
核心观点:文章最想传递的 3 个关键信息;
适用人群:这篇文章对哪些职场人有帮助;
可优化点:文章存在的 1-2 个不足。
文章内容:[此处粘贴文章文本]"
进阶推理技术:应对复杂任务,解决 "AI 不会思考"
- 链式思考(CoT)提示
dart
核心逻辑: 让AI像人类一样 "分步解题"------ 在指令中加入 "请先分析步骤,再给出答案" 的引导,强制 AI 暴露思考过程,避免直接输出错误结论(尤其适用于数学题、逻辑题、因果分析)。
适用场景:数学计算(如 "小学应用题、代数题")、逻辑推理(如 "真假命题判断、事件因果分析")、复杂决策(如 "规划旅行路线、制定项目方案")。
大模型在推理过程中,本质上是通过概率预测下一个词。当用户直接提问时,模型可能会"跳过思考"直接生成答案,导致错误。
而 CoT Prompt 会明确告诉模型:
不要直接回答;
要分步骤"解释推理过程";
最后得出结论。
这样能显著提升模型在 数学推理、逻辑推理、多步骤任务 中的正确率。
例如:
指令:"请先分步骤分析,再计算结果。
问题:小明有 5 个苹果,妈妈又买了两盒,每盒 4 个,现在小明一共有多少个苹果?
步骤 1:先计算妈妈买的苹果总数;
步骤 2:再将小明原有的苹果数与妈妈买的数量相加;
步骤 3:得出最终总数。"
- 少样本思维链(Few-Shot CoT)
dart
核心逻辑:结合 "少样本提示" 和 "思维链提示"------ 给 AI 一个 "带完整思考步骤的示例",让 AI 模仿该步骤解决同类问题
适用场景:复杂数学题(如 "几何证明、概率计算")、逻辑分析题(如 "商业案例中的因果关系分析")。
例如:
指令:"参考以下示例的解题步骤,解决新问题。
示例问题:小红有 3 支笔,每支笔 2 元,买笔一共花了多少钱?
示例步骤 1:明确已知条件:笔的数量 = 3 支,单价 = 2 元 / 支;
示例步骤 2:确定计算公式:总价 = 数量 × 单价;
示例步骤 3:代入计算:3×2=6 元;
新问题:超市买 4 瓶牛奶,每瓶 3 元,付 20 元应找零多少?
请按步骤解答:"
- 自我一致性
dart
核心逻辑:对同一复杂问题,让 AI 生成多个不同的 "思考路径",再通过对比多个结果的一致性,选择最合理的答案(适用于单一推理易出错的场景,如数学、逻辑题)。
适用场景:高难度推理任务(如 "奥数题、逻辑谬误判断")、需要验证准确性的决策(如 "风险评估、方案可行性分析")。
例如:
指令:"请用 2 种不同的思路分析以下问题,最后判断哪种思路更合理并给出答案。
问题:一个长方形周长是 20cm,长比宽多 2cm,求长方形的面积。
思路 1:先通过周长公式求长 + 宽,再结合长 - 宽 = 2cm 列方程;
思路 2:先假设宽为 x,再用周长公式表示长,进而求解;
请分别按两种思路计算,最后对比结果。"
- 生成知识提示
dart
核心逻辑: 让模型在对问题做出预测(如判断事实、推理结论)前,先主动生成与问题相关的 "背景知识 / 事实信息",再基于这些知识进行推理,最终输出更准确的答案。
适用场景:聚焦 "需要常识 / 事实支撑的任务"
例如: 可以参考豆包的思考过程
1.提示设计:
请针对"南瓜与糖尿病患者饮食"生成相关知识,需包含以下4个核心维度:
1. 南瓜的主要营养成分(重点:碳水化合物、膳食纤维含量);
2. 南瓜的升糖指数(GI值),并说明"不同烹饪方式(如蒸南瓜、南瓜粥)对GI值的影响";
3. 南瓜对糖尿病患者血糖的实际影响(如"是否降血糖""过量食用的风险");
4. 糖尿病患者食用南瓜的建议(如适宜食用量、搭配方式)。
知识需准确、基于营养学常识,避免绝对化表述。
输出结果 【生成的知识】
2:知识整合
问题:糖尿病患者能否大量食用南瓜?请严格基于以下知识回答,先解释理由,再给出结论("能"或"不能")。
【生成的知识】
两次输入
- 思维树 (ToT)
dart
核心逻辑: 是将复杂任务的解决过程从 "线性链条" 升级为 "树状分支结构"------ 在每个推理节点上,引导 AI 生成多个可能的 "思路分支",通过评估筛选出优质分支,再基于优质分支继续探索下一层节点,最终从 "多路径探索" 中聚合出最优结果。其优点是,可在分支评估时淘汰错误思路,无需回溯全局
场景:某某活动,设计几个可行性方案,并比较优劣
- 检索增强生成 (RAG)
dart
RAG系统中的Prompt核心在于让模型基于检索到的上下文回答问题,而非依赖自身知识。
RAG系统中Prompt设计模板
"请严格根据以下提供的【上下文】来回答问题。如果上下文中的信息不足以回答问题,请直接回答'根据已知信息无法回答该问题'。
【上下文】:
{retrieved_context}
【问题】:
{user_question}
【回答】:"