基于LangSmith的提示词工程

提示词(Prompt)用于引导大模型(LLM)的行为。提示词工程(Prompt Engineering)是指设计、测试并优化给大模型的指令,以使其生成可靠且有用的响应的过程。

LangSmith提供了用于创建、版本控制、测试提示词以及进行协作的工具。另外还有一些常见概念,例如提示词模板(Prompt Templates)------ 可让你复用结构化的提示词,以及变量(Variables)------ 能让你在提示词中动态插入值(例如用户的问题)。

在本文中,你将通过软件开发工具包(SDK)来创建、测试并优化提示词。本指南以OpenAI作为示例大模型提供商,但相同的工作流程也适用于其他提供商。

准备

开始之前,请确保你已具备以下条件:

  • 一个 LangSmith 账号:可前往 smith.langchain.com 注册或登录。
  • 一个 LangSmith API 密钥:请参考《创建 API 密钥指南》操作。
  • 一个 OpenAI API 密钥:可从OpenAI控制台生成。

搭建环境

bash 复制代码
mkdir ls-prompt-quickstart && cd ls-prompt-quickstart
python -m venv .venv
source .venv/bin/activate
pip install -qU langsmith openai langchain_core
export LANGSMITH_API_KEY='<your_api_key>'
export OPENAI_API_KEY='<your_api_key>'

创建提示词

要创建提示词,你需要先定义提示词中所需的消息列表,然后将其推送到LangSmith平台。 使用对应编程语言的构造函数与推送方法:

  • Python:通过 ChatPromptTemplate 构建 → 调用 client.push_prompt(...) 推送
  • TypeScript:通过 ChatPromptTemplate.fromMessages(...) 构建 → 调用 client.pushPrompt(...) 推送。

在 create_prompt.py文件中添加以下代码:

python 复制代码
from langsmith import Client
from langchain_core.prompts import ChatPromptTemplate

client = Client()

prompt = ChatPromptTemplate([
    ("system", "You are a helpful chatbot."),
    ("user", "{question}"),
])

client.push_prompt("prompt-quickstart", object=prompt)

此操作会创建一个有序的消息列表,将其封装到 ChatPromptTemplate(对话提示词模板)中,然后按名称将该提示词推送到你的工作区,以便进行版本控制和复用。

执行脚本: python create_prompt.py

点击生成的链接,即可在 LangSmith 用户界面(UI)中查看新创建的 "提示词中心"(Prompt Hub)提示词。

测试提示词

在本步骤中,你将通过名称("prompt-quickstart")拉取上一步创建的提示词,用测试输入对其进行格式化,转换为 OpenAI 的对话格式,然后调用OpenAI的Chat Completions API。

之后,你可以通过创建新版本来迭代优化该提示词。工作区成员可打开已有提示词,在用户界面(UI)中尝试修改,并将这些修改保存为该提示词的新提交记录,从而为整个团队保留历史版本记录。

在 test_prompt.py文件中添加以下内容:

python 复制代码
from langsmith import Client
from openai import OpenAI
from langchain_core.messages import convert_to_openai_messages

client = Client()
oai_client = OpenAI()

prompt = client.pull_prompt("prompt-quickstart")

# Since the prompt only has one variable you could also pass in the value directly
# Equivalent to formatted_prompt = prompt.invoke("What is the color of the sky?")
formatted_prompt = prompt.invoke({"question": "What is the color of the sky?"})

response = oai_client.chat.completions.create(
    model="gpt-4o",
    messages=convert_to_openai_messages(formatted_prompt.messages),
)

此操作会通过名称加载提示词,使用 pull(拉取)方法获取你正在测试的提示词的最新提交版本。你也可以通过传入"提交哈希值"(格式为 :)来指定某个特定的提交版本。

执行测试: python test_prompt.py

若要创建提示词的新版本,只需使用初始时的相同推送方法,传入相同的提示词名称和更新后的模板即可。LangSmith会将其记录为新的提交记录,并保留之前的版本。

将以下代码复制到 iterate_prompt.py文件中:

python 复制代码
from langsmith import Client
from langchain_core.prompts import ChatPromptTemplate

client = Client()

new_prompt = ChatPromptTemplate([
    ("system", "You are a helpful chatbot. Respond in Spanish."),
    ("user", "{question}"),
])

client.push_prompt("prompt-quickstart", object=new_prompt)

执行脚本: python iterate_prompt.py

现在你的提示词将包含两条提交记录。

如需优化你的提示词,可参考以下方式:

相关推荐
m0_7436239220 小时前
HTML怎么创建多语言切换器_HTML语言选择下拉结构【指南】
jvm·数据库·python
pele20 小时前
Angular 表单中基于下拉选择动态启用字段必填校验的完整实现
jvm·数据库·python
HHHHH1010HHHHH20 小时前
Redis怎样判断节点是否主观下线_哨兵基于down-after-milliseconds参数的心跳超时判定
jvm·数据库·python
小白学大数据21 小时前
现代Python爬虫开发范式:基于Asyncio的高可用架构实战
开发语言·爬虫·python·架构
qq_6543669821 小时前
CSS如何处理@import样式表的嵌套加载_评估递归对加载的影响
jvm·数据库·python
weixin_3812881821 小时前
苹果微软双修党福音:Navicat如何跨系统平滑迁移配置
jvm·数据库·python
xcbrand21 小时前
政府事业机构品牌策划公司找哪家
大数据·人工智能·python
码界筑梦坊21 小时前
93-基于Python的中药药材数据可视化分析系统
开发语言·python·信息可视化
阿荻在肝了21 小时前
Agent学习六:LangGraph学习-持久化与记忆一
python·学习·agent
qingyulee21 小时前
python多进程、线程、协程
python