基于LangSmith的提示词工程

提示词(Prompt)用于引导大模型(LLM)的行为。提示词工程(Prompt Engineering)是指设计、测试并优化给大模型的指令,以使其生成可靠且有用的响应的过程。

LangSmith提供了用于创建、版本控制、测试提示词以及进行协作的工具。另外还有一些常见概念,例如提示词模板(Prompt Templates)------ 可让你复用结构化的提示词,以及变量(Variables)------ 能让你在提示词中动态插入值(例如用户的问题)。

在本文中,你将通过软件开发工具包(SDK)来创建、测试并优化提示词。本指南以OpenAI作为示例大模型提供商,但相同的工作流程也适用于其他提供商。

准备

开始之前,请确保你已具备以下条件:

  • 一个 LangSmith 账号:可前往 smith.langchain.com 注册或登录。
  • 一个 LangSmith API 密钥:请参考《创建 API 密钥指南》操作。
  • 一个 OpenAI API 密钥:可从OpenAI控制台生成。

搭建环境

bash 复制代码
mkdir ls-prompt-quickstart && cd ls-prompt-quickstart
python -m venv .venv
source .venv/bin/activate
pip install -qU langsmith openai langchain_core
export LANGSMITH_API_KEY='<your_api_key>'
export OPENAI_API_KEY='<your_api_key>'

创建提示词

要创建提示词,你需要先定义提示词中所需的消息列表,然后将其推送到LangSmith平台。 使用对应编程语言的构造函数与推送方法:

  • Python:通过 ChatPromptTemplate 构建 → 调用 client.push_prompt(...) 推送
  • TypeScript:通过 ChatPromptTemplate.fromMessages(...) 构建 → 调用 client.pushPrompt(...) 推送。

在 create_prompt.py文件中添加以下代码:

python 复制代码
from langsmith import Client
from langchain_core.prompts import ChatPromptTemplate

client = Client()

prompt = ChatPromptTemplate([
    ("system", "You are a helpful chatbot."),
    ("user", "{question}"),
])

client.push_prompt("prompt-quickstart", object=prompt)

此操作会创建一个有序的消息列表,将其封装到 ChatPromptTemplate(对话提示词模板)中,然后按名称将该提示词推送到你的工作区,以便进行版本控制和复用。

执行脚本: python create_prompt.py

点击生成的链接,即可在 LangSmith 用户界面(UI)中查看新创建的 "提示词中心"(Prompt Hub)提示词。

测试提示词

在本步骤中,你将通过名称("prompt-quickstart")拉取上一步创建的提示词,用测试输入对其进行格式化,转换为 OpenAI 的对话格式,然后调用OpenAI的Chat Completions API。

之后,你可以通过创建新版本来迭代优化该提示词。工作区成员可打开已有提示词,在用户界面(UI)中尝试修改,并将这些修改保存为该提示词的新提交记录,从而为整个团队保留历史版本记录。

在 test_prompt.py文件中添加以下内容:

python 复制代码
from langsmith import Client
from openai import OpenAI
from langchain_core.messages import convert_to_openai_messages

client = Client()
oai_client = OpenAI()

prompt = client.pull_prompt("prompt-quickstart")

# Since the prompt only has one variable you could also pass in the value directly
# Equivalent to formatted_prompt = prompt.invoke("What is the color of the sky?")
formatted_prompt = prompt.invoke({"question": "What is the color of the sky?"})

response = oai_client.chat.completions.create(
    model="gpt-4o",
    messages=convert_to_openai_messages(formatted_prompt.messages),
)

此操作会通过名称加载提示词,使用 pull(拉取)方法获取你正在测试的提示词的最新提交版本。你也可以通过传入"提交哈希值"(格式为 :)来指定某个特定的提交版本。

执行测试: python test_prompt.py

若要创建提示词的新版本,只需使用初始时的相同推送方法,传入相同的提示词名称和更新后的模板即可。LangSmith会将其记录为新的提交记录,并保留之前的版本。

将以下代码复制到 iterate_prompt.py文件中:

python 复制代码
from langsmith import Client
from langchain_core.prompts import ChatPromptTemplate

client = Client()

new_prompt = ChatPromptTemplate([
    ("system", "You are a helpful chatbot. Respond in Spanish."),
    ("user", "{question}"),
])

client.push_prompt("prompt-quickstart", object=new_prompt)

执行脚本: python iterate_prompt.py

现在你的提示词将包含两条提交记录。

如需优化你的提示词,可参考以下方式:

相关推荐
Ro Jace30 分钟前
A Real-Time Cross Correlator for Neurophysiological Research
人工智能·python·算法
还不秃顶的计科生31 分钟前
查看linux服务器中某文件夹占用空间大小
服务器·python
T_Fire_of_Square32 分钟前
crewai的进一步工具扩展
python·github
喵手36 分钟前
Python爬虫零基础入门【第三章:Requests 静态爬取入门·第3节】稳定性第一课:超时、重试、退避(指数退避)!
爬虫·python·python爬虫实战·python爬虫工程化实战·python爬虫零基础入门·requests静态爬取·超时、重试、退避
啊阿狸不会拉杆42 分钟前
《机器学习》第 7 章 - 神经网络与深度学习
人工智能·python·深度学习·神经网络·机器学习·ai·ml
没有bug.的程序员1 小时前
Spring Boot 启动原理:从 @SpringBootApplication 到自动配置深度解析
java·spring boot·后端·python·springboot·application
学掌门1 小时前
从数据库到可视化性能,5个大数据分析工具测评,python只排倒数
数据库·python·数据分析
小二·1 小时前
Python Web 开发进阶实战:联邦学习平台 —— 在 Flask + Vue 中构建隐私保护的分布式 AI 训练系统
前端·python·flask
kuiini1 小时前
scikit-learn 常用算法与评估方法【Plan 7】
python·算法·scikit-learn
SunnyRivers1 小时前
Python 包和项目管理工具uv核心亮点详解
python·uv·亮点