提示词工程简介Prompt Engineering

前情提要:本篇文章是基于视频2小时彻底掌握提示词工程(Prompt Engineering)中记录下来的学习笔记,推荐再看该学习笔记之前先去blili看此教程

一.什么是提示词工程

提示工程也叫指令工程。Prompt就是你发给大模型的指令,比如「讲个笑话」、「用Python编个贪吃蛇游戏」、「给男/女朋友写封情书」等

在使用Prompt的时候,我们应该达到固化一套Prompt到程序中,成为系统功能的一部分的水平,比如「每天生成本公司的简报」「AI客服系统」「基于公司知识库的问答」

1.2 Prompt调优

找到好的prompt是个持续迭代的过程,需要不断调优。

如果知道训练数据是怎样的,参考训练数据来构造prompt是最好的。「当人看」类比:

  1. 你知道ta爱读红楼梦,就和ta聊红楼梦
  2. 你知道ta十年老阿里,就多说阿里黑话
  3. 你知道ta是日漫迷,就夸ta卡哇伊

不知道训练数据怎么办?

  1. 看 Ta是否主动告诉你。例如已知:OpenAI GPT对Markdown格式友好,Claude对XML友好
  2. 只能不断试了。多一个字少一个字,对生成概率的影响都可能是很大的。「试」是常用方法,确实有运气因素,所以「门槛低、天花板高」

高质量prompt核心要点:

修炼prompt 能力,工夫在平时:

  1. 我们的「群聊天」习惯,天然和prompt背道而驰。随口就说,全是短句,容易歧义
  2. 欧美的「群发邮件」习惯,更占优势。篇篇都是小作文
  3. 让自己在群里也是「小作文」

答案显而易见,是一定需要的,见不同的人肯定要说不同的话。

二.Prompt的典型构成

那么**「定义角色」**为什么有效呢?

模型训练者并没想到过会这样,完全是大家「把AI当人看」玩出的一个实在传得太广,导致现在的大模型训练数据里充满了角色定义,有一篇论文证实的现象,可以说明为啥「你是一个xxx」特别有效

推荐流量包的智能客服

对话系统的基本模块和思路

上面这个图看着可能有点抽象,用对话流程举例:

核心思路:

  1. 把输入的自然语言对话,转成结构化的表示(NLU)
  2. 把结构化的表示,生成策略(DST--->Policy)
  3. 把策略转成自然语言输出(NLG)

用Prompt实现

用逐步调优的方式实现,先搭建基本运行环境

python 复制代码
# 导入依赖库
from openai import OpenAI
from dotenv import load_dotenv, find_dotenv

# 加载 .env 文件中定义的环境变量
_ = load_dotenv(find_dotenv())

# 初始化 OpenAI 客户端
client = OpenAI()  # 默认使用环境变量中的 OPENAI_API_KEY 和 OPENAI_BASE_URL

# 基于 prompt 生成文本
def get_completion(prompt, model="gpt-3.5-turbo"):    # 默认使用 gpt-3.5-turbo 模型
    messages = [{"role": "user", "content": prompt}]  # 将 prompt 作为用户消息
    response = client.chat.completions.create(
        model=model,
        messages=messages,
        temperature=0,                                # 模型输出的随机程度,0 表示最确定
    )
    return response.choices[0].message.content        # 返回生成的文本内容

实现一个NLU

定义任务描述和输入

由上述结果我们知道他理解了,但是自然语言的输出,不方便我们做策略,于是我们

规定输出格式输出,之后的加例子也类似

所以:

  1. 多轮对话,需要每次都把对话历史带上(是的很费token钱)
  2. 和大模型对话,不会让ta变聪明,或变笨
  3. 但对话历史数据,可能会被用去训练大模型.

三.进阶技巧

3.1 思维链(Chain of Thoughts,CoT)

思维链,是大模型涌现出来的一种神奇能力

  1. 它是偶然被「发现」的(OpenAI的人在训练时没想过会这样)
  2. 有人在提问时以**「Let's think step by step」**开头,结果发现AI 会把问题分解成多个步骤,然后逐步解决,使得输出的结果更加准确。

3.2 自洽性(Self-Consistency)

一种对抗「幻觉」的手段。就像我们做数学题,要多次验算一样。

  • 同样prompt跑多次
  • 通过投票选出最终结果

四.防止Prompt攻击

攻击方式1:著名的「奶奶漏洞」

用套路把AI绕懵。

攻击方式2: Prompt注入

  • 防范措施1:Prompts注入分类器,参考机场安检的思路,先把危险的prompt拦截掉
  • **防范措施2:**直接在输入中防御

五.OpenAI API的几个重要参数

OpenAI提供了两类API:

  1. **Completion API:**续写文本,多用于补全场景
  2. Chat API: 多轮对话,但可以用对话逻辑完成任何任务,包括续写文本

说明:

  1. Chat是主流,有的大模型只提供Chat
  2. 背后的模型可以认为是一样的,但也不完全一样
  3. Chat模型是纯生成式模型做指令微调之后的结果,更多才多艺,更听话

六.用GPTs帮我们写prompt

相关推荐
AI成长日志1 天前
【AI原生开发实战】2.1 Prompt工程基础:编写高质量提示词
人工智能·prompt·ai-native
Bill Adams1 天前
如何基于Harness Engineering设计一个Agent OS
人工智能·prompt·agent·智能体·harness
斯坦SteinY1 天前
Git Worktree + Claude Code同时开发多个功能
人工智能·chatgpt·prompt·aigc·claude·并行开发
枫叶v.1 天前
Prompt Engineering、Context Engineering、Harness Engineering:它们到底是什么关系呢
大数据·人工智能·prompt
飞Link2 天前
大模型时代的“语言编程”:Prompt Engineering (提示词工程) 深度解析与实战指南
开发语言·python·prompt
zzb15802 天前
系统提示词-System Prompt 动态组装
人工智能·后端·python·prompt
小橙子学AI2 天前
AI 编程的 Prompt 工程:如何写出高质量指令
人工智能·prompt
小林学编程2 天前
模型上下文协议(MCP)的理解
java·后端·llm·prompt·resource·tool·mcp协议
chQHk57BN3 天前
解密Prompt系列69. 从上下文管理到Runtime操作系统
prompt
北邮刘老师3 天前
暗数据:智能体探索世界的下一步
人工智能·大模型·prompt·智能体·智能体互联网