0 ChatPromptTemplate作用
ChatPromptTemplate是创建 聊天消息列表 的提示模板。它比普通 PromptTemplate 更适合处理多角 色、多轮次的对话场景。
1 两种实例化方式
ChatPromptTemplate 有两种实例化方式,一个是使用ChatPromptTemplate的构造方法,另一个是使用其from_messages()方法,两种方式实例化效果一样,单纯写法不同。
1.1 构造方法实例化
python
from langchain_core.prompts import ChatPromptTemplate
prompt_template = ChatPromptTemplate([
("system", "你是私人助理小贝"),
("human", "你是谁?")
])
prompt = prompt_template.invoke({})
print(prompt)
1.2 from_messages()方法实例化
python
from langchain_core.prompts import ChatPromptTemplate
prompt_template = ChatPromptTemplate.from_messages([
("system", "你是私人助理小贝"),
("human", "你是谁?")
])
prompt = prompt_template.invoke({})
print(prompt)
2 模版的调用方式
2.1 调用方式的区别对比
调用ChatPromptTemplate共有四种方式,分别是invoke () 、 format () 、 format_messages () 、 format_prompt(),它们的主要区别是返回的类型不同。
| 方式 | 返回类型 | 参数类型 |
|---|---|---|
| invoke | ChatPromptValue | 字典 |
| format | str | 变量 |
| invoke | list | 变量 |
| invoke | ChatPromptValue | 变量 |
2.2 代码示例
python
from langchain_core.prompts import ChatPromptTemplate
prompt_template = ChatPromptTemplate([
("system", "你是私人助理小贝"),
("human", "你是谁?")
])
prompt_by_invoke = prompt_template.invoke({})
prompt_by_format = prompt_template.format()
prompt_by_format_messages = prompt_template.format_messages()
prompt_by_format_prompt = prompt_template.format_prompt()
print("---------------prompt_by_invoke")
print(type(prompt_by_invoke))
print(prompt_by_invoke)
print("---------------prompt_by_format")
print(type(prompt_by_format))
print(prompt_by_format)
print("---------------prompt_by_format_messages")
print(type(prompt_by_format_messages))
print(prompt_by_format_messages)
print("---------------prompt_by_format_prompt")
print(type(prompt_by_format_prompt))
print(prompt_by_format_prompt)
2.3 运行结果

2.4 小结和使用建议
ChatPromptValue可以调用to_messages ()和to_string ()将ChatPromptValue转换成消息list类型和字符串类型,所以直接使用invoke()进行调用即可
2 模版的参数类型
上述示例仅使用了元祖的方式构建ChatPromptTemplate列表,实际上ChatPromptTemplate列表的元素可以是多种参数类型,以下将探究tuple 、str 、dict 、Message 、BaseChatPromptTemplate五种类型
2.1 tuple
python
prompt_template = ChatPromptTemplate([
("system", "你是私人助理小贝"),
("human", "你是谁?")
])
2.2 str
注意,此种方式创建的消息,只会默认为是HumanMessage,所以不推荐
python
prompt_template = ChatPromptTemplate([
"你好"
])
2.3 dict
python
prompt_template = ChatPromptTemplate([
{"role":"system", "content": "你是私人助理小贝"},
{"role":"human", "content": "你是谁?"}
])
2.4 Message
python
prompt_template = ChatPromptTemplate([
SystemMessage("你是私人助理小贝"),
HumanMessage("你是谁?")
])
2.5 BaseChatPromptTemplate
使用 BaseChatPromptTemplate,可以理解为ChatPromptTemplate里嵌套了 ChatPromptTemplate。
python
system_prompt_template = ChatPromptTemplate([("system", "你是私人助理小贝")])
human_prompt_template = ChatPromptTemplate([("human", "你是谁?")])
prompt_template = ChatPromptTemplate([
system_prompt_template,
human_prompt_template
])
3 结合大模型使用模板
3.1 代码
python
import os
import dotenv
from langchain_core.prompts import PromptTemplate, ChatPromptTemplate
from langchain_openai import ChatOpenAI
dotenv.load_dotenv()
os.environ["OPENAI_BASE_URL"] = os.getenv("QWEN_BASE_URL")
os.environ["OPENAI_API_KEY"] = os.getenv("QWEN_API_KEY")
# 获取对话模型
chat_model = ChatOpenAI(
model="qwen-plus",
streaming=True
)
prompt_template = ChatPromptTemplate([
("system", "你是私人助理小贝"),
("human", "我是Jevon"),
("ai", "你好Jevon"),
("human", "我是谁?")
])
prompt = prompt_template.invoke({})
# 调用模型
response = chat_model.stream(prompt)
# 流式输出
for chunk in response:
print(chunk.content, end='', flush=True)
3.2 运行效果
因为消息模版的存在,使得大模型有了记忆力

4 MessagesPlaceholder
4.1 概念以及应用场景
当你不确定消息提示模板使用什么角色,或者希望在格式化过程中 插入消息列表 时,该怎么办? 这就需 要使用 MessagesPlaceholder,负责在特定位置添加消息列表。即一个占位符,后续调用消息模板时可以将消息列表填充进去。
使用场景:多轮对话系统存储历史消息以及Agent的中间步骤处理此功能非常有用。
4.2 代码示例
python
import os
import dotenv
from langchain_core.prompts import PromptTemplate, ChatPromptTemplate, MessagesPlaceholder
from langchain_openai import ChatOpenAI
dotenv.load_dotenv()
os.environ["OPENAI_BASE_URL"] = os.getenv("QWEN_BASE_URL")
os.environ["OPENAI_API_KEY"] = os.getenv("QWEN_API_KEY")
# 获取对话模型
chat_model = ChatOpenAI(
model="qwen-plus",
streaming=True
)
prompt_template = ChatPromptTemplate([
("system", "你是私人助理小贝"),
MessagesPlaceholder('history'),
("human", "{question}")
])
prompt = prompt_template.invoke({
"history":[("human", "我是Jevon"),
("ai", "你好Jevon")],
"question": "我是谁?"
})
# 调用模型
response = chat_model.stream(prompt)
# 流式输出
for chunk in response:
print(chunk.content, end='', flush=True)
4.3 运行效果

5 小结
ChatPromptTemplate的写法很多,但是有很多都是得到同一个效果,就显得有点鸡肋,目前唯一感觉有点用的就是MessagesPlaceholder,这个对后续大模型记忆有帮助。感觉ChatPromptTemplate的构造和参数大概有个印象即可,茴字的写法太多了,能看懂他人代码即可。