【简洁明了】调节大模型的prompt的方法【带案例】

简明调节大模型的prompt的方法【简洁明了带案例】

  • [1. 明确任务目标](#1. 明确任务目标)
  • [2. 提供上下文](#2. 提供上下文)
  • [3. 指定格式](#3. 指定格式)
  • [4. 限制输出长度](#4. 限制输出长度)
  • [5. 使用示例](#5. 使用示例)
  • [6. 逐步引导](#6. 逐步引导)
  • [7. 提供反面例子](#7. 提供反面例子)
  • [8. 使用CoT思维链](#8. 使用CoT思维链)
  • [9. 反复试验和调整](#9. 反复试验和调整)
  • 最后

因为网上给出的调节prompt都 过于详细,这里挑选出了一些 常用但足够用的调节大模型prompt的方法。方便大家看完后 简洁明了快速掌握调节prompt的技巧。

以下是一些技巧和例子,帮助你更好地调prompt:

1. 明确任务目标

确保你的提示词明确地表达了你希望模型完成的任务。

(明确的任务指令任务类型 (如生成文本回答问题分类 等)以及期望的输出格式

例子:

  • 不明确的提示词:"讲个故事。"
  • 明确的提示词:"请讲一个关于勇敢的小狗拯救森林的故事,故事中要有三个主要角色和一个令人惊讶的结局。"

2. 提供上下文

为模型提供必要的背景信息,以便它能够生成更相关的内容。

例子:

  • 无背景信息:"给我写一篇关于人工智能的文章。"
  • 有背景信息:"请写一篇关于人工智能在医疗领域应用的文章,重点介绍其在诊断和治疗中的作用。"

3. 指定格式

如果你需要特定格式的输出,明确说明。

(在prompt中详细列出对输出的要求 ,包括内容要求格式要求风格要求等。)

例子:

  • 不指定格式:"写一篇关于气候变化的报告。"
  • 指定格式:"写一篇关于气候变化的报告,包含以下部分:引言、现状分析、影响、解决方案和结论。"

4. 限制输出长度

限制输出的长度可以帮助模型集中在最重要的信息上。

例子:

  • 无长度限制:"解释一下量子计算。"
  • 有长度限制:"用不超过150字解释量子计算。"

5. 使用示例

提供示例和模板可以帮助模型理解你期望的输出类型和风格。

适用于需要特定格式或风格的任务。)

例子:

  • 无示例:"写一个关于友谊的故事。"
  • 有示例:"写一个关于友谊的故事。例如:'小明和小红是从小一起长大的好朋友,他们一起经历了许多冒险......'"

6. 逐步引导

对于复杂任务,可以将其分解为多个步骤,并逐步引导模型完成每个步骤。

(将复杂任务 ,将其分解成多个简单的子任务,并逐一解决)

例子:

  • 复杂任务:"写一个关于人工智能的详细报告。"
  • 分步骤引导:
    1. "请先写一段引言,介绍人工智能的基本概念。"
    2. "接下来,写一段关于人工智能在图像识别中的应用。"
    3. "然后,写一段关于人工智能在自然语言处理中的应用。"
    4. "最后,写一段总结,讨论人工智能的未来发展趋势。"

7. 提供反面例子

告诉模型哪些是你不希望看到的内容,可以帮助它更好地理解你的需求。

例子:

  • 不提供反面例子:"写一篇关于可持续发展的文章。"
  • 提供反面例子:"写一篇关于可持续发展的文章,不要包含太多技术术语,避免使用过于专业的语言。"

8. 使用CoT思维链

技巧说明:CoT(Chain-of-Thought)思维链提示常用于推理规划类问题。通过要求模型先输出中间过程,再逐步运算生成答案,可以提高模型对复杂问题的推理准确性。

例子:

  • COT例子:"在解决这个数学问题时,请首先列出你的解题思路,然后逐步计算并给出答案。例如,对于问题'10+5=?',你的解题思路应该是先计算个位上的和,再计算十位上的和,最终得到答案15。'"

9. 反复试验和调整

通过反复试验和调整来调节prompt。根据模型的输出不断优化你的提示词。

例子:

  • 初始提示词:"写一个关于未来科技的故事。"
  • 调整后的提示词:"写一个关于未来科技的故事,故事发生在2050年,主角是一名年轻的科学家,她发明了一种能够治愈所有疾病的纳米机器人。"

方法九解释:乔哈里窗检视

方法九实际上就是乔哈里窗检视的应用:通过识别开放区、隐藏区、盲区和未知区,我们可以调整prompt以减少误解。)

例子:

  • 应用乔哈里视窗:"在编写prompt时,我明确提出了需求(开放区) ,但模型可能没有完全理解我希望它生成的内容类型(隐藏区) 。通过反复调整和测试,我逐渐缩小了隐藏区,使模型更准确地理解了我的意图。"

最后

我们只要把大模型当成一个人 ,通过调节和它对话的内容,就总能让它输出我们比较期望的prompt

相关推荐
AI程序猿人4 小时前
基于稀疏预训练的LLaMA-2模型压缩与加速
人工智能·深度学习·机器学习·llama·ai大模型·计算机技术·大模型训练
陈敬雷-充电了么-CEO兼CTO4 小时前
大模型企业应用落地系列二》基于大模型的对话式推荐系统》核心技术架构设计图
gpt·ai·chatgpt·系统架构·gpt-3·推荐算法·agi
微学AI7 小时前
大模型提示词工程技术3-提示词输入与输出的优化的技巧详细介绍
大模型·提示词
AaronZZH8 小时前
Win11 本地部署大模型 WebUI + ComfyUI
aigc·llama·comfyui
SpikeKing9 小时前
LLM - GPT(Decoder Only) 类模型的 KV Cache 公式与原理 教程
gpt·attention·公式·矩阵乘法·kv cache·decoderonly·键值缓存
木亦汐丫10 小时前
【大模型系列篇】预训练模型:BERT & GPT
人工智能·gpt·大模型·bert·预训练模型
小陈努力学1123581311 小时前
如何使用GPT画出带中文的图和表?-已解决GPT画图表出现乱码的问题
gpt·中文乱码
心心喵17 小时前
[论文笔记] LLM-ICL论文:AI模型对prompt格式&分隔符的敏感性——结构化Prompt格式
prompt
营赢盈英1 天前
Getting RateLimitError while implementing openai GPT with Python
python·gpt·gpt-3·openai api·python 3.x
yangtuoni1 天前
单GPU高效训练笔记
大模型