在使用LangChain与AI交互时,想要让对话更有条理、适配多角色、多轮次的沟通场景,ChatPromptTemplate这个工具绝对少不了。它本质上就是一个用来构建聊天消息列表的提示模板,能帮我们规范AI的交互逻辑,让每一次对话都更贴合预期。
如果你喜欢看视频学习,就看 《15. LangChain ChatPromptTemplate核心实战》。
prompt_template = ChatPromptTemplate.from_messages([
SystemMessagePromptTemplate.from_template("你是AI开发助手{name},擅长编程开发。"),
HumanMessagePromptTemplate.from_template("你能帮我做什么?"),
AIMessagePromptTemplate.from_template("我可以帮你写代码、改bug。"),
HumanMessagePromptTemplate.from_template("{user_question}")
])
使用这个模板时,写法可以灵活调整。如果只是简单传递消息内容,不需要额外附带参数,用字符串别名的写法会特别简洁,省去不少冗余操作。
prompt_template = ChatPromptTemplate.from_messages([
("system", "你是AI开发助手{name},擅长编程。"),
("user", "你能帮我做什么?"),
("ai", "我可以帮你写代码、改bug。"),
("user", "{user_question}")
])
但如果追求更高的清晰性和可扩展性,想兼容一些高级功能,那字典写法就比元组简写更合适,后续维护和修改也会更方便。
prompt_template = ChatPromptTemplate.from_messages([
{"role": "system", "content": "你是AI开发助手{name},擅长编程。"},
{"role": "user", "content": "你能帮我做什么?"},
{"role": "ai", "content": "我可以帮你写代码、改bug。"},
{"role": "user", "content": "{user_question}"}
])
这里要重点说一下不同字符串别名的用法,它们对应着不同的消息类,各有明确的用途和使用规则,记清楚这些能避免很多操作失误。
|--------------|---------------|----------------|--------------------|
| 字符串别名 | 对应消息类 | 用途 | 使用规则 |
| system | SystemMessage | 给AI设定人设、规则和上下文 | 必在开头只能有1个 |
| user/human | HumanMessage | 代表用户的输入 | 与"ai"交替,不能连续出现2个 |
| ai/assistant | AIMessage | 表示AI的输出约束 | 跟在"user"后,不能连续出现2个 |
了解完这些基础规则,就到了实战环节,其实操作步骤很简单,一步步来就能上手。首先要做的就是导入ChatPromptTemplate类,这是所有后续操作的基础。接着,用from_messages方法创建这个类的实例,这个方法需要接收一个消息列表作为参数,列表里的每条消息都是包含role和content字段的字典,其中content里用大括号包裹的部分,就是我们后续要填充的变量占位符。通过system、user、ai这三种角色的搭配,我们就能轻松定义出完整的对话上下文,甚至可以加入回答范例,让AI更清楚该如何响应。
创建好实例后,调用invoke方法,传入一个包含具体填充值的字典,它就会自动替换掉所有的占位符,生成一个完整的PromptValue提示词对象。最后,把这个PromptValue对象传入已经初始化好的大语言模型的invoke方法,就能完成一次规范的AI交互了。
from langchain_core.prompts import ChatPromptTemplate
prompt_template = ChatPromptTemplate.from_messages([
{"role": "system", "content": "你是AI开发助手{name},擅长编程开发和技术问题解答。"},
{"role": "user", "content": "你能帮我做什么?"},
{"role": "ai","content": "我可以帮你写代码、改bug、设计技术方案。"},
{"role": "user", "content": "{user_question}"}
])
prompt_value = prompt_template.invoke(
{
"name": "神算子",
"user_question": "用Python写一个简单的计算器程序"
}
)
res = llm.invoke(prompt_value, config=config)
print(res.content)
除此之外,还有一个实用小技巧可以记一下。如果我们需要预先定义部分变量,不用每次都完整传入所有参数,借助partial方法就能轻松指定,后续使用时只需要补充剩余变量即可。
from langchain_core.prompts import ChatPromptTemplate
prompt_template = ChatPromptTemplate.from_messages([
{"role": "system", "content": "你是AI开发助手{name},擅长编程开发和技术问题解答。"},
{"role": "user", "content": "你能帮我做什么?"},
{"role": "ai", "content": "我可以帮你写代码、改bug、设计技术方案。"},
{"role": "user", "content": "{user_question}"}
])
partial_prompt = prompt_template.partial(name="神算子")
prompt_value = partial_prompt.invoke(
{
"user_question": "用Python写一个简单的计算器程序"
}
)
res = llm.invoke(prompt_value, config=config)
print(res.content)
要是想在模板中嵌入消息列表,比如多轮对话的历史消息,就可以使用MessagesPlaceholder,它的字符串别名是placeholder,用起来特别便捷,能很好地适配多轮交互场景。
from langchain_core.prompts import ChatPromptTemplate
prompt_template = ChatPromptTemplate.from_messages([
{"role": "system", "content": "你是AI开发助手{name},擅长编程开发和技术问题解答。"},
{"role": "placeholder", "content": "{chat_history}"},
{"role": "user", "content": "你能帮我做什么?"},
{"role": "ai", "content": "我可以帮你写代码、改bug、设计技术方案。"},
{"role": "user", "content": "{user_question}"}
])
partial_prompt = prompt_template.partial(name="神算子")
prompt_value = partial_prompt.invoke(
{
"user_question": "用Python写一个简单的计算器程序",
"history": [
{"role": "user", "content": "我想做个编程工具"},
{"role": "ai", "content": "我来帮你实现"}
]
}
)
res = llm.invoke(prompt_value, config=config)
print(res.content)