LangChain提示词模版 PromptTemplate

0 什么是PromptTemplate

Prompt Template 是LangChain中的一个概念,接收用户输入,返回一个传递给LLM的信息(即提示词prompt)。

在应用开发中,固定的提示词限制了模型的灵活性和适用范围。所以,prompt template 是一个 模板化 的字符串 ,你可以将

变量插入到模板 中,从而创建出不同的提示。调用时:

  • 以 字典 作为输入,其中每个键代表要填充的提示模板中的变量。
  • 输出一个 PromptValue 。这个 PromptValue 可以传递给 LLM 或 ChatModel,并且还可以转换 为字符串或消息列表。

简单地说就是一个通过输入参数快速构造提示词模版的构造方法

1 构造PromptTemplate的两种方式

构造提示词模板有两种方式,一个是直接使用PromptTemplate 构造方法,另一个是通过其from_template()方法来生成

1.1 PromptTemplate构造方法

1.1.1 主要参数介绍
  • template:定义提示词模板的字符串,其中包含 文本 和 变量占位符(如{name}) ;
  • input_variables: 列表,指定了模板中使用的变量名称,在调用模板时被替换;
  • partial_variables:字典,用于定义模板中一些固定的变量名。这些值不需要再每次调用时被替换。
1.1.2 示例代码
python 复制代码
import os
import dotenv
from langchain_core.prompts import PromptTemplate
from langchain_openai import ChatOpenAI

dotenv.load_dotenv()

os.environ["OPENAI_BASE_URL"] = os.getenv("QWEN_BASE_URL")
os.environ["OPENAI_API_KEY"] = os.getenv("QWEN_API_KEY")

# 获取对话模型
chat_model = ChatOpenAI(
    model="qwen-plus",
    streaming=True
)

template = PromptTemplate(
    template="说一个关于{topic}的笑话,不超过{max_len}字",
    input_variables=["topic"],
    partial_variables={"max_len": 100},
)

prompt = template.format(topic="猪")
# 调用模型
response = chat_model.stream(prompt)

print("提示词:", prompt)
# 流式输出
for chunk in response:
    print(chunk.content, end='', flush=True)
1.1.3 效果

1.2 调用from_template()

1.2.1 总结理解

相比使用PromptTemplate 构造函数的方式,该方式无需在构造方法中填写input_variables和partial_variables,只需填写模版字符串,对于初始化部分参数可以通过partial ()方法实现,注意,该方法也可以在使用PromptTemplate构造函数的方式中使用

1.2.2 示例代码
python 复制代码
import os
import dotenv
from langchain_core.prompts import PromptTemplate
from langchain_openai import ChatOpenAI

dotenv.load_dotenv()

os.environ["OPENAI_BASE_URL"] = os.getenv("QWEN_BASE_URL")
os.environ["OPENAI_API_KEY"] = os.getenv("QWEN_API_KEY")

# 获取对话模型
chat_model = ChatOpenAI(
    model="qwen-plus",
    streaming=True
)

template = PromptTemplate.from_template("说一个关于{topic}的笑话,不超过{max_len}字").partial(max_len="100")

prompt = template.format(topic="牛")
# 调用模型
response = chat_model.stream(prompt)

print("提示词:", prompt)
# 流式输出
for chunk in response:
    print(chunk.content, end='', flush=True)
1.2.3 效果

2 format()调用和invoke()调用

2.1 format()和invoke()的使用规则

  • 只要对象是RunnableSerializable接口类型,都可以使用invoke(),替换前面使用format()的调用方式。
  • format(),返回值为字符串类型;
  • invoke(),返回值为PromptValue类型,接着调用to_string()返回字 符串。

总结一下就是format参数使用a="xx"的形式,invoke使用json形式传值

2.2 示例代码

python 复制代码
import os
import dotenv
from langchain_core.prompts import PromptTemplate
from langchain_openai import ChatOpenAI

dotenv.load_dotenv()

os.environ["OPENAI_BASE_URL"] = os.getenv("QWEN_BASE_URL")
os.environ["OPENAI_API_KEY"] = os.getenv("QWEN_API_KEY")

# 获取对话模型
chat_model = ChatOpenAI(
    model="qwen-plus",
    streaming=True
)

template = PromptTemplate.from_template("说一个关于{topic}的笑话,不超过{max_len}字").partial(max_len="100")

prompt = template.invoke({"topic": '鸡'})
# 调用模型
response = chat_model.stream(prompt)

print("提示词:", prompt)
# 流式输出
for chunk in response:
    print(chunk.content, end='', flush=True)

2.3 效果

相关推荐
rosmis3 分钟前
复杂工程拆解:自顶向下设计,自底向上实现
人工智能·python·机器人·自动化·自动驾驶·硬件工程·制造
njidf3 分钟前
Python上下文管理器(with语句)的原理与实践
jvm·数据库·python
郝学胜-神的一滴4 分钟前
深入理解Python生成器:从基础到斐波那契实战
开发语言·前端·python·程序人生
2301_764441339 分钟前
python与Streamlit构建的旅游行业数据分析Dashboard项目
python·数据分析·旅游
人工智能AI技术13 分钟前
GitHub Trending榜首:Python Agentic RAG企业级落地指南
人工智能·python
喵手13 分钟前
Python爬虫实战:解构 CLI 工具命令参考文档树!
爬虫·python·爬虫实战·cli·零基础python爬虫教学·工具命令参考文档采集·数据采集实战
java1234_小锋18 分钟前
基于LangChain的RAG与Agent智能体开发 - RunnableLambda实现复杂多模型链路调用
langchain·rag
进击的雷神27 分钟前
多展会框架复用、Next.js结构统一、北非网络优化、参数差异化配置——阿尔及利亚展爬虫四大技术难关攻克纪实
javascript·网络·爬虫·python
ZTLJQ28 分钟前
网络通信的基石:Python HTTP请求库完全解析
开发语言·python·http
华科大胡子34 分钟前
爬虫对抗:ZLibrary反爬机制实战分析
python