大家好,我是运营黑客。
最近,Google 发布了一份 67 页提示工程技巧(Prompt Engineering)PDF 文档。这是一份非常值得一看的报告:
✅ 它总结了,针对最新 LLM(如 Gemini、ChatGPT),行之有效的提问技巧;
✅ 这份报告的内容非常系统化,适合新手、小白学习入门。不过,原版 PDF 全部是英文,而且有 67 页之多。

对于国内的小伙伴不太友好。
今天肝了 6 个小时,将这份报告中涉及「提示技巧」的部分全部扒下来,整理成了 3000 余字的内容。
希望能帮你,更高效的运用好现在的 AI 大模型。
话不多说,我们开始正文。
每次看到提示工程(Prompt Engineering),不少朋友会被「工程」两个字吓到,接下来我会用最简单的方式,带你一步步了解如何更好地与 AI「沟通」。
到底什么是提示工程?
简单来说,提示工程就是:研究怎么"问对问题"或者"给对指令",让 AI(尤其是像 Gemini、ChatGPT 这样的大语言模型)能更准确、更有效地理解你的意思,并给出你想要的答案或内容。
核心概念:
- 提示 (Prompt): 你输入给 AI 的任何文本。可以是一个问题、一个命令、一段开头,甚至是一张图片(多模态)。
生活化比喻: 就像你给导航 App 输入目的地地址。地址越精确(提示越好),导航路线越靠谱(AI 回答越好)。
- 提示工程 (Prompt Engineering): 设计、优化和测试这些"提示"的过程。目标是让 AI"秒懂"你的需求。
生活化比喻: 不只是告诉厨师"做个菜",而是详细说明"做一道少油少盐的番茄炒蛋,鸡蛋要嫩,番茄去皮切小块"。这个详细说明的过程,就是提示工程。
- 大语言模型 (LLM): 指那些"读万卷书"(海量数据)训练出来的 AI 模型,比如 Google 的 Gemini。它们擅长理解和生成文本。
核心机制(极简版): 它们像个超级学霸+猜词游戏高手。你给它一句话,它能根据"读过的书"猜出最可能接在后面的词,最后形成回答。
为什么提示工程如此重要?

因为 AI 并不是真正"思考",它们是基于概率工作的。
一个模糊或有歧义的提示,很可能让 AI"跑偏",给出驴唇不对马嘴的答案。提示工程就是那座桥梁,连接你的意图和 AI 的"理解",让你能真正驾驭 AI 的力量。
AI的"控制按钮":LLM输出配置
除了写好提示,我们还可以调整一些参数,像控制音响的按钮一样,微调AI输出的风格和内容。
- 输出长度 (Output Length / Max Tokens): 控制 AI 回答的字数(准确地说是 token 数,可以粗略理解为单词或汉字)。
比如: 规定作文的字数上限。
- 温度 (Temperature): 控制 AI 回答的"创造性"或"随机性"。值越低(比如0.1),回答越稳定、越"一本正经";值越高(比如 0.9),回答越有创意、越"天马行空",但也可能越不着边际。温度为 0 时,AI 会选择最最可能的那个词,回答最确定。

比如: 调节"创意"按钮。低 = 新闻播报员,高 = 即兴诗人。
- Top-K: AI 在生成下一个词时,只从概率最高的 K 个词里选。K 越小,选择范围越窄,回答越"聚焦"。
比如: 点菜时只看菜单上最受欢迎的前3道菜。
- Top-P: AI 选择词的范围,直到这些词的累计概率达到 P(比如 0.95)。这比 Top-K 更灵活,有时选的词多,有时少。
比如: 点菜时一直看菜单,直到看过的菜加起来覆盖了 95% 大家常点的菜为止。注意: 这些参数会相互影响,需要不断尝试找到最适合你任务的组合。
核心提示技巧:"武功秘籍"
这部分是精髓!掌握这些技巧,你的"提问"水平将大大提升。
基础招式

- 零样本 (Zero-shot): 直接提问或下指令,不给 AI 任何例子。
比如: 直接问朋友:"法国首都是哪里?"
- 单样本/少样本 (One-shot / Few-shot): 在提示里给 AI 一个或几个例子,告诉它你想要的格式或答案类型。
比如: 教小孩认字,指着"猫"的图片说"这是猫",然后指着另一张猫问"这是什么?"(单样本)。或者先教认"猫"、"狗"、"鸟",再问(少样本)。这对需要特定格式输出的任务特别有用。
设定场景与角色

- 系统提示 (System Prompting): 给 AI 设定一个整体的背景、规则或"人设"。
比如: 玩游戏前先告诉大家:"我们现在都在扮演侦探,目标是找出凶手。"
- 上下文提示 (Contextual Prompting): 提供与当前任务相关的具体背景信息。
比如: 点菜时告诉厨师:"我今天有点过敏,不能吃海鲜。"(这是针对这顿饭的特定信息)。
- 角色提示 (Role Prompting): 让 AI 扮演一个特定的角色来回答问题。
比如: "请你扮演一位经验丰富的旅行规划师,给我推荐适合带小孩去的东京景点。"
高级思维技巧
- 退一步思考 (Step-back Prompting): 在解决具体问题前,先引导 AI 思考更宏观、更普遍的原理。
比如: 在设计一把特别的椅子前,先思考"什么样的结构才能让任何椅子都稳固?"
- 思维链 (Chain of Thought - CoT): 让 AI 在给出最终答案前,先一步步展示它的思考或推理过程。这对非推理模型,解决复杂问题时特别有效!
比如: 做数学题时,不只写答案,还要把解题步骤写出来。这样更容易发现错误,答案也更可靠。
- 自洽性 (Self-consistency): 让 AI 用 CoT 的方式多次思考同一个问题(因为温度等设置,路径可能不同),然后选择出现次数最多的那个答案。
比如: 同一道难题,请 5 位学霸独立写出解题步骤和答案,最后选那个最多人得出的答案。

- 思维树 (Tree of Thoughts - ToT): 允许 AI 同时探索多个不同的思考路径,像树枝一样散开,评估哪条路更有希望。
比如: 侦探破案,同时考虑多种可能性(嫌疑人 A 作案、嫌疑人 B 作案、意外事故),并对每种可能性进行深入调查。
- ReAct (Reason & Act): 让 AI 不仅能思考,还能"行动"------比如调用外部工具(像搜索引擎搜索最新信息、运行代码计算等),然后根据行动结果继续思考。这是实现 AI 智能体(Agent)的关键一步。
比如: 你问 AI"现在北京天气怎么样?",它不仅思考你的问题,还会去调用天气查询工具(行动),然后把查到的结果告诉你。
- 自动提示工程 (Automatic Prompt Engineering - APE): 让 AI 帮你生成和优化提示。
比如: 想学做菜,但不知怎么写菜谱?请一位大厨帮你写几份不同风味的"番茄炒蛋"菜谱出来。
提示高手都在用的11个技巧
✅ 提供示例 (Provide examples): 少样本通常比零样本效果好。
✅ 保持简洁清晰 (Design with simplicity): 人都看不懂的提示,AI更难懂。
✅ 具体说明输出要求 (Be specific about the output): 想要什么格式、什么风格、包含哪些信息,说清楚。
✅ 用指令而非限制 (Use Instructions over Constraints): 多说"要做什么",少说"不要做什么"。(例如,"只包含 A、B、C"比"不要包含 D、E、F"更好)。
✅ 控制输出长度 (Control the max token length): 避免回答太长或被截断。
✅ 善用变量 (Use variables in prompts): 让提示更灵活,方便复用。
✅ 尝试不同风格和格式 (Experiment): 多试试不同的问法。
✅ 对于分类任务,打乱示例顺序 (Mix up classes for few-shot): 防止 AI"死记硬背"顺序。
✅ 适应模型更新 (Adapt to model updates): 新模型可能有新特性或行为变化。
✅ 尝试结构化输出 (Experiment with output formats): 比如要求返回 JSON 格式,便于程序处理,也能减少 AI"自由发挥"的错误。
✅ 记录你的尝试 (Document the various prompt attempts): 好记性不如烂笔头!记录下哪些提示有效,哪些无效,以及为什么。
虽然,LLM(大语言模型)正在不断进化,但从目前阶段看,掌握提示技巧的人,往往能更快的获取「优质答案」。
AI 时代,一步快、步步快。
最后,如果觉得这篇内容对你有一些帮助,记得帮忙点赞、转发。各位兄弟姐妹的支持,是我们持续输出干货内容最大的动力。