提示工程你玩对了吗,这5个高阶玩法...

五种被验证有效的提示技术

1. Few-shot Prompting (少样本提示)

语言模型在训练阶段接触了大量类似"问题-答案"或结构化的数据格式(如JSON、XML)。

通过在提示中提供几个高质量的输入-输出范例(Examples),我们实际上是在激活模型已经学会的"模式识别"能力,引导它按照我们期望的格式和逻辑进行输出。

这比单纯用自然语言描述要求要直接和有效得多。

"当你要求LLM做一件事时,给它看好的例子是什么样的。"

实战格式:

makefile 复制代码
Q: [输入示例1]
A: [期望输出示例1]

Q: [输入示例2]
A: [期望输出示例2]

Q: [我的真实输入]
A:

2. Decomposition (任务分解)

大型语言模型在处理单一、明确的任务时表现出色,但在面对一个宏大而复杂的问题时,容易出现逻辑跳跃或忽略关键细节。这与人类的工作方式类似。

将一个大项目分解成一系列小步骤,可以显著降低每个步骤的认知负荷,从而保证最终结果的准确性和完整性。

"别直接一次性解决这个问题。而是问:'在回答之前,请告诉我需要首先解决哪些子问题?'"

实战案例

一个汽车经销商的聊天机器人收到"我想退车"的请求。直接处理非常复杂。

  • 错误方式: "请处理这个客户的退货请求。"
  • 正确方式(分解): "一个客户想退货。在回应之前,请列出你需要先解决的子问题。"
    LLM的输出可能就是:
    1. 确认客户身份。
    2. 查询客户的车型和购买日期。
    3. 检查车辆是否符合退货政策。
    4. 生成相应的回复草稿。

3. Self-criticism (自我批评)

这项技术利用了LLM的推理和评估能力,构建了一个内部的"生成-评估"反馈循环

第一次生成的内容是初稿,随后的"批评"指令则强制模型切换到"审阅者"视角,利用其庞大的知识库来检查初稿中的事实错误、逻辑漏洞或不一致之处。

这本质上是模拟了人类写作中的"草稿-修改-定稿"过程。

"你问LLM:'你能检查一下你的回应吗?'它会输出一些东西,你让它批评自己,然后改进自己。"

执行步骤

    1. 提问: "总结一下引力波的发现过程。"
    1. 要求批评: "请检查你上面的回应,指出任何不准确或可以改进的地方。"
    1. 要求改进: "现在,根据你提出的批评,生成一个最终的、改进后的版本。"

4. Additional Information (附加信息/上下文)

LLM的回答质量直接取决于输入信息的丰富度和准确度。

当任务涉及专业领域或特定知识时,模型可能会因为缺乏精确的"世界知识"而产生误解。

提供附加信息,就如同给模型一个"即时词典"或"背景资料包" ,帮助它在正确的知识框架内进行推理和判断,避免歧义。

"你正在尝试让模型完成某项任务。你希望尽可能多地提供关于该任务的信息。"

实战案例

在一项医疗编码任务中,需要LLM对Reddit帖子进行分类。

当遇到"Entrapment"一词时,模型可能会误解为物理上的"陷阱"。

改进提示: "...在下面的文本中,术语'Entrapment'指的是一种心理状态,定义为'个体感到被困在某种处境中,并且认为逃离的代价很高'。请基于这个定义进行分类..."

5. Ensembling Techniques (集成技术)

这个思想源于机器学习中的集成学习方法。

单个模型或单个提示可能会有其固有的"视角盲区"或随机性。

通过使用多个不同视角(提示、角色、甚至模型)来解决同一个问题,然后对答案进行聚合(如投票) ,可以有效地平滑掉单个输出的极端偏差,从而获得一个更鲁棒、更可靠的最终答案。

"集成技术会针对一个问题,用多个不同的提示来解决同一个问题......然后取最常见的答案作为我的最终答案。"

实战案例:"推理专家混合"

针对一个复杂的历史问题,你可以让三个LLM分别扮演"历史教授"、"考古学家"和"社会学家"的角色进行回答,最后综合它们的答案。

不再有效的提示技术

1. Role Prompting(角色提示

定义: 赋予AI一个角色,例如"你是一位数学教授"或"你是一位世界级文案",然后让它执行任务。

现状:对于基于准确性的任务(如数学问题),角色提示不再能带来显著的性能提升。早期研究中的微小准确率差异(0.01%)缺乏统计学意义。

有效场景:角色提示仍适用于表达性任务(如写作、总结),因为它们影响输出的风格。例如,要求LLM以鲁迅的风格生成回答。

2. 奖励/威胁承诺无效:

定义: 在提示中加入奖励承诺(如"我会给你5美元小费")或威胁(如"这对我职业生涯非常重要,如果答不好会有人死")。

现状: 早期模型可能会因为这些情感化或激励性的文本在训练数据中的关联,而产生微小的性能波动。但是现在已经不再有效。

相关推荐
eBest数字化转型方案9 分钟前
2025年快消品行业渠道数字化营销系统全景透视与选型策略
人工智能
kkcodeer25 分钟前
大模型Prompt原理、编写原则与技巧以及衡量方法
人工智能·prompt·ai大模型
DevSecOps选型指南35 分钟前
SBOM风险预警 | NPM前端框架 javaxscript 遭受投毒窃取浏览器cookie
前端·人工智能·前端框架·npm·软件供应链安全厂商·软件供应链安全工具
rocksun37 分钟前
MCP利用流式HTTP实现实时AI工具交互
人工智能·mcp
xiaok1 小时前
docker network create langbot-network这条命令在dify输入还是在langbot中输入
人工智能
It_张1 小时前
LLM(大语言模型)的工作原理 图文讲解
人工智能·语言模型·自然语言处理
Darach1 小时前
坐姿检测Python实现
人工智能·python
xiaok1 小时前
LangBot 和消息平台均运行在 Docker 容器中
人工智能
queeny1 小时前
Datawhale AI夏令营 科大讯飞AI大赛(大模型技术) Task3 心得
人工智能