Google 官方提示工程 (Prompt Engineering)白皮书 总结

《大语言模型的提示工程:从基础到最佳实践》

总结

本文围绕大语言模型的提示工程展开,介绍其是设计高质量提示引导 LLM 产生准确输出的过程。探讨了 LLM 输出配置如输出长度、温度、top-K 和 top-P 等设置及其相互影响,阐述了零样本、少样本、系统、角色、上下文等提示技术,还涉及代码提示、自动提示工程。强调了提供示例、简洁设计等最佳实践,帮助读者掌握提示工程,提升使用 LLM 的效果。

思维导图

mindmap 复制代码
## **提示工程基础**
- 定义:设计高质量提示引导LLM产生准确输出
- 重要性:影响模型输出质量,是迭代过程
## **LLM输出配置**
- 输出长度:影响计算资源、响应时间和成本
- 采样控制:温度、top-K、top-P控制随机性和多样性
## **提示技术**
- 基础提示:零样本仅描述任务,少样本提供示例
- 引导提示:系统设定任务目的,角色赋予模型身份,上下文提供相关信息
- 优化提示:步骤回溯、思维链、自一致性、思维树、ReAct提升性能
## **代码提示**
- 代码编写:用Gemini生成Bash、Python代码
- 代码处理:解释、翻译、调试和审查代码
## **最佳实践**
- 通用原则:提供示例、简洁设计、明确输出要求
- 特定技巧:使用指令而非约束、控制token长度、利用变量等

详细

提示工程概述:提示工程是设计高质量提示,引导大语言模型(LLM)产生准确输出的过程。文本提示是模型预测输出的输入,其效果受模型、训练数据、配置、用词、风格等多种因素影响,是一个迭代过程。

LLM 输出配置

配置项 作用 影响
输出长度 控制响应生成的 token 数量 影响计算资源、能耗、响应时间和成本
温度 控制 token 选择的随机性 低温适用于确定性响应,高温产生更多样结果
top-K 从预测分布中选择前 K 个最可能的 token K 值越高,输出越具创造性;K=1 相当于贪婪解码
top-P 选择累积概率不超过特定值(P)的 token P 值从 0(贪婪解码)到 1(考虑所有 token),影响输出的随机性和多样性

提示技术

基础提示:零样本提示仅描述任务,如用 "Classify movie reviews as POSITIVE, NEUTRAL or NEGATIVE. Review: ..." 对电影评论分类;少样本提示提供示例,帮助模型理解任务,如解析披萨订单时提供多个订单示例。

引导提示:系统提示设定模型任务目的和整体背景,如指定输出格式为 JSON;角色提示赋予模型特定身份,使其生成符合该身份的内容;上下文提示提供与任务相关的特定细节或背景信息,辅助模型生成更准确相关的回答。

优化提示:步骤回溯提示让模型先考虑相关一般问题,再解决具体任务,提高回答准确性;思维链提示通过生成中间推理步骤提升模型推理能力,结合少样本提示效果更佳;自一致性提示结合采样和多数投票,生成多样推理路径并选择最一致答案,提高回答准确性和连贯性;思维树提示允许模型同时探索多个推理路径,适用于复杂任务;ReAct 提示结合自然语言推理和外部工具,模仿人类解决问题方式。

代码提示:Gemini 可用于编写、解释、翻译、调试和审查代码。如用提示生成 Bash 脚本重命名文件,解释代码功能,将 Bash 代码翻译成 Python 代码,以及调试有错误的 Python 代码。

最佳实践:包括提供示例、设计简洁、明确输出要求、优先使用指令而非约束、控制最大 token 长度、使用变量、尝试不同输入格式和写作风格、混合少样本分类任务中的类别、适应模型更新、尝试不同输出格式、与其他提示工程师合作,以及记录提示尝试过程。

关键问题

不同采样控制参数(温度、top-K、top-P)如何相互作用?:温度、top-K 和 top-P 都影响 LLM 输出的随机性和多样性。在 Vertex Studio 中,符合 top-K 和 top-P 标准的 token 成为下一个预测 token 的候选,然后应用温度进行采样。极端设置下,一个采样配置值可能使其他配置设置失效或变得无关,如温度设为 0 时,top-K 和 top-P 变得无关。

思维链提示(Chain of Thought)的优势和局限性分别是什么?:优势在于低投入高产出,可解释性强,能提高模型在不同版本 LLM 间的鲁棒性;局限性是会增加输出 token 数量,导致预测成本更高、时间更长。

自动提示工程(Automatic Prompt Engineering)的主要步骤有哪些?:主要步骤包括使用模型生成多个提示,基于选定指标(如 BLEU 或 ROUGE)评估这些提示,选择评估得分最高的提示作为最终使用的提示,也可对选定提示进行调整后再次评估。

PDF 下载

相关推荐
Swizard3 天前
逐行解剖:扒开 Lovable Agent 源码,看顶级 AI 是如何“思考”与“动刀”的
ai·prompt
杜子不疼.5 天前
大模型应用开发实战:从 Prompt 工程到企业级落地全流程
prompt
觅特科技-互站5 天前
告别手动微调Prompt:DevOps用陌讯Skills重构AI运维工作流
运维·prompt·线性回归·kmeans·devops
小马_xiaoen5 天前
AI Prompt 工程完全指南:从入门到精通的提示词设计艺术
人工智能·prompt
Swizard6 天前
还在无脑堆砌提示词?三分钟看懂 Vercel v0 价值千万的 System Prompt 底层逻辑
ai·prompt
Loo国昌6 天前
【AI应用开发实战】Guardrail风险控制中间件:Agent系统的安全防线
人工智能·python·安全·自然语言处理·中间件·prompt
啦啦啦_99996 天前
SpringAI Alibaba(SAA) 之 Prompt
prompt
AC赳赳老秦6 天前
DeepSeek助力云原生AI降本:容器化部署资源优化与算力利用率提升技巧
网络·python·django·prompt·tornado·ai-native·deepseek
Loo国昌7 天前
【AI应用开发实战】09_Prompt工程与模板管理:构建可演进的LLM交互层
大数据·人工智能·后端·python·自然语言处理·prompt
minhuan7 天前
大模型应用:遗传算法 (GA)+大模型:自动化进化最优Prompt与模型参数.95
prompt·大模型应用·遗传算法 ga·prompt自动调优