基于LangSmith的提示词工程

提示词(Prompt)用于引导大模型(LLM)的行为。提示词工程(Prompt Engineering)是指设计、测试并优化给大模型的指令,以使其生成可靠且有用的响应的过程。

LangSmith提供了用于创建、版本控制、测试提示词以及进行协作的工具。另外还有一些常见概念,例如提示词模板(Prompt Templates)------ 可让你复用结构化的提示词,以及变量(Variables)------ 能让你在提示词中动态插入值(例如用户的问题)。

在本文中,你将通过软件开发工具包(SDK)来创建、测试并优化提示词。本指南以OpenAI作为示例大模型提供商,但相同的工作流程也适用于其他提供商。

准备

开始之前,请确保你已具备以下条件:

  • 一个 LangSmith 账号:可前往 smith.langchain.com 注册或登录。
  • 一个 LangSmith API 密钥:请参考《创建 API 密钥指南》操作。
  • 一个 OpenAI API 密钥:可从OpenAI控制台生成。

搭建环境

bash 复制代码
mkdir ls-prompt-quickstart && cd ls-prompt-quickstart
python -m venv .venv
source .venv/bin/activate
pip install -qU langsmith openai langchain_core
export LANGSMITH_API_KEY='<your_api_key>'
export OPENAI_API_KEY='<your_api_key>'

创建提示词

要创建提示词,你需要先定义提示词中所需的消息列表,然后将其推送到LangSmith平台。 使用对应编程语言的构造函数与推送方法:

  • Python:通过 ChatPromptTemplate 构建 → 调用 client.push_prompt(...) 推送
  • TypeScript:通过 ChatPromptTemplate.fromMessages(...) 构建 → 调用 client.pushPrompt(...) 推送。

在 create_prompt.py文件中添加以下代码:

python 复制代码
from langsmith import Client
from langchain_core.prompts import ChatPromptTemplate

client = Client()

prompt = ChatPromptTemplate([
    ("system", "You are a helpful chatbot."),
    ("user", "{question}"),
])

client.push_prompt("prompt-quickstart", object=prompt)

此操作会创建一个有序的消息列表,将其封装到 ChatPromptTemplate(对话提示词模板)中,然后按名称将该提示词推送到你的工作区,以便进行版本控制和复用。

执行脚本: python create_prompt.py

点击生成的链接,即可在 LangSmith 用户界面(UI)中查看新创建的 "提示词中心"(Prompt Hub)提示词。

测试提示词

在本步骤中,你将通过名称("prompt-quickstart")拉取上一步创建的提示词,用测试输入对其进行格式化,转换为 OpenAI 的对话格式,然后调用OpenAI的Chat Completions API。

之后,你可以通过创建新版本来迭代优化该提示词。工作区成员可打开已有提示词,在用户界面(UI)中尝试修改,并将这些修改保存为该提示词的新提交记录,从而为整个团队保留历史版本记录。

在 test_prompt.py文件中添加以下内容:

python 复制代码
from langsmith import Client
from openai import OpenAI
from langchain_core.messages import convert_to_openai_messages

client = Client()
oai_client = OpenAI()

prompt = client.pull_prompt("prompt-quickstart")

# Since the prompt only has one variable you could also pass in the value directly
# Equivalent to formatted_prompt = prompt.invoke("What is the color of the sky?")
formatted_prompt = prompt.invoke({"question": "What is the color of the sky?"})

response = oai_client.chat.completions.create(
    model="gpt-4o",
    messages=convert_to_openai_messages(formatted_prompt.messages),
)

此操作会通过名称加载提示词,使用 pull(拉取)方法获取你正在测试的提示词的最新提交版本。你也可以通过传入"提交哈希值"(格式为 :)来指定某个特定的提交版本。

执行测试: python test_prompt.py

若要创建提示词的新版本,只需使用初始时的相同推送方法,传入相同的提示词名称和更新后的模板即可。LangSmith会将其记录为新的提交记录,并保留之前的版本。

将以下代码复制到 iterate_prompt.py文件中:

python 复制代码
from langsmith import Client
from langchain_core.prompts import ChatPromptTemplate

client = Client()

new_prompt = ChatPromptTemplate([
    ("system", "You are a helpful chatbot. Respond in Spanish."),
    ("user", "{question}"),
])

client.push_prompt("prompt-quickstart", object=new_prompt)

执行脚本: python iterate_prompt.py

现在你的提示词将包含两条提交记录。

如需优化你的提示词,可参考以下方式:

相关推荐
许泽宇的技术分享3 小时前
当AI学会“说人话“:Azure语音合成技术的魔法世界
后端·python·flask
大模型真好玩3 小时前
Gemini3.0深度解析,它在重新定义智能,会是前端工程师噩梦吗?
人工智能·agent·deepseek
光泽雨3 小时前
python学习基础
开发语言·数据库·python
AAA修煤气灶刘哥4 小时前
从Coze、Dify到Y-Agent Studio:我的Agent开发体验大升级
人工智能·低代码·agent
裤裤兔4 小时前
python爬取pdf文件并保存至本地
chrome·爬虫·python·pdf·网络爬虫
Solyn_HAN4 小时前
非编码 RNA(ceRNA/lncRNA/circRNA)分析完整流程:从数据下载到功能验证(含代码模板)
python·bash·生物信息学·r
CesareCheung4 小时前
JMeter 进行 WebSocket 接口压测
python·websocket·jmeter
小陈phd4 小时前
RAG从入门到精通(四)——结构化数据读取与导入
人工智能·langchain
唐诗4 小时前
使用 LangChain 创建一个简单的 Agent
前端·langchain·llm
beijingliushao4 小时前
95-Python爬虫-正则表达式
爬虫·python·正则表达式