LangChain 中 Prompt 模板

一、LangChain Prompt 模板概述

LangChain 提供了两种主要的提示模板类:

  1. ChatPromptTemplate:用于构建多轮对话式提示(聊天格式)
  2. PromptTemplate:用于构建简单的文本提示模板

两者都支持变量填充和参数化处理,但适用场景不同。


二、ChatPromptTemplate

🔹 功能简介

  • 专为聊天机器人设计,遵循通用聊天消息格式(如 OpenAI API 格式)。
  • 每条消息必须包含 rolecontent 字段。
  • 支持多轮对话结构,适合复杂交互任务。

🔹 支持的角色类型(大小写敏感)

角色名 含义
"system" 系统指令或角色设定(如"你是一名物理老师")
"human""user" 用户输入的消息
"ai""assistant" 模型生成的回答

注意:

  • from_messages() 方法会自动映射别名:
    • "user""human"
    • "assistant""ai"

🔹 常用角色含义

  • ai: LLM 返回的内容(模型输出)
  • human: 人类用户的输入
  • system: 系统级别的配置或角色定义

示例代码:创建聊天消息模板

复制代码
from langchain_core.prompts import ChatPromptTemplate

# 创建一个多轮对话模板
template = ChatPromptTemplate.from_messages([
    ("system", "你是一名物理老师,你正在教学{state}。"),
    ("human", "你好!"),
    ("ai", "好的,请问有什么我可以帮您解答的吗?"),
    ("human", "帮我解释一下{per_input}量子力学。")
])

# 只保留用户提问部分的简化版本
template_1 = ChatPromptTemplate.from_messages([
    ("system", "你是一名物理老师,你正在教学{state}。"),
    ("human", "帮我解释一下{per_input}量子力学。")
])

格式化模板内容

复制代码
messages1 = template.format_messages(state="大学生", per_input="大学二年级")
print(f"messages1类型: {type(messages1)}")  # 输出: List[BaseMessage]
print(messages1)

print("*" * 100)

messages2 = template.format_prompt(state="大学生", per_input="大学二年级")
print(f"messages2类型: {type(messages2)}")  # 输出: PromptValue
print(messages2)

关键区别:format_messages() vs format_prompt()

方法 返回值 用途
format_messages() List[BaseMessage](如 SystemMessage, HumanMessage) 直接用于 LLM 输入
format_prompt() PromptValue 对象 可通过 .to_messages() 转为消息列表,也可 .to_string() 得到纯文本

三、PromptTemplate

🔹 功能简介

  • 适用于单次文本提示,不涉及对话历史。
  • 支持变量插值 {variable},可动态替换内容。
  • 可显式声明变量,也可自动推断。

🔹 构造方式

方式1:显式声明变量
复制代码
from langchain_core.prompts import PromptTemplate

prompt1 = PromptTemplate(
    template="你是物理{system_name}老师。解释一下什么是量子计算,你好{name}?请用json格式输出",
    input_variables=["system_name", "name"]  # 显式声明需要的变量
)

message1 = prompt1.format(system_name="高级", name="张三")
print(message1)
方式2:自动推断变量(推荐)
复制代码
prompt2 = PromptTemplate.from_template(
    "你是物理{system_name}老师。解释一下什么是量子计算,你好{name}?请用json格式输出"
)

message2 = prompt2.format(system_name="高级", name="张三")
print(message2)

from_template() 自动从 {xxx} 中识别变量名,无需手动指定 input_variables


🔹 示例汇总

示例1:带两个变量的提示
复制代码
prompt = PromptTemplate(
    template="你是物理{system_name}老师。解释一下什么是量子计算,你好{name}?请用json格式输出",
    input_variables=["system_name", "name"]
)
message = prompt.format(system_name="高级", name="张三")
print(message)
示例2:无输入变量的提示
复制代码
no_input_prompt = PromptTemplate(input_variables=[], template="给我讲个笑话。")
message = no_input_prompt.format()
print(message)

输出:给我讲个笑话。

示例3:一个输入变量
复制代码
one_input_prompt = PromptTemplate(
    input_variables=["adjective"], 
    template="给我讲个{adjective}的笑话。"
)
message = one_input_prompt.format(adjective="把肚子笑痛")
print(message)

输出:给我讲个把肚子笑痛的笑话。

示例4:多个输入变量
复制代码
multiple_input_prompt = PromptTemplate(
    input_variables=["adjective", "content"],
    template="给我讲一个{adjective}的关于{content}的笑话。"
)
message = multiple_input_prompt.format(adjective="有趣的", content="足球")
print(message)

输出:给我讲一个有趣的关于足球的笑话。


🔹 高级功能:partial() ------ 预填充变量

示例5:预填充部分变量
复制代码
from langchain_core.prompts import PromptTemplate
import datetime

def get_datetime():
    now = datetime.datetime.now()
    return now.strftime("%m/%d/%Y, %H:%M:%S")

prompt = PromptTemplate(
    template="告诉我{city}在{year}年{date}的平均气温",
    input_variables=["city", "year", "date"]
)

# 完整调用
message1 = prompt.format(city="上海", year=2025, date=get_datetime())
print(message1)

print("*" * 100)

# 使用 partial 先填入部分变量
partial_prompt = prompt.partial(city="成都", date=get_datetime(), year="2025")
print(partial_prompt.format())  # 不需要再传参

print("\n" * 2)
print("原始变量:", prompt.input_variables)        # ['city', 'date', 'year']
print("partial后变量:", partial_prompt.input_variables)  # []

partial() 的优势:简化链式调用

复制代码
chain = partial_prompt | llm
response = chain.invoke({})  # 空字典即可

解释:

  • prompt 是"带空格的模板"
  • partial_prompt 是"填好空格的成品"
  • 使用 partial() 后,后续不再需要重复传递相同参数

总结对比表

特性 ChatPromptTemplate PromptTemplate
用途 多轮对话、聊天场景 单次文本提示
必需字段 role, content template
支持角色 system / human / ai 无角色概念
输出形式 List[BaseMessage]PromptValue strPromptValue
是否支持 partial() 支持 支持
推荐使用场景 对话系统、客服机器人 简单问答、指令生成

最佳实践建议

  1. 选择合适的模板类型

    • 若有对话历史 → 使用 ChatPromptTemplate
    • 若是简单文本指令 → 使用 PromptTemplate
  2. 优先使用 from_template()

    • 自动识别变量,减少出错
  3. 善用 partial()

    • 减少重复参数输入,提升代码复用性
  4. 注意角色大小写敏感

    • "Human" ❌,必须是 "human"
  5. 理解返回类型差异

    • format_messages() → 消息对象(适合 LLM 输入)
    • format_prompt() → PromptValue(灵活转换)
相关推荐
微尘hjx2 小时前
【目标检测软件 02】AirsPy 目标检测系统操作指南
人工智能·测试工具·yolo·目标检测·计算机视觉·目标跟踪·qt5
米有哥2 小时前
[Embodied AI] Mac上安装ROS2
人工智能·macos·ros2
爱笑的眼睛112 小时前
JAX 函数变换:超越传统自动微分的编程范式革命
java·人工智能·python·ai
黑客思维者2 小时前
机器学习014:监督学习【分类算法】(逻辑回归)-- 一个“是与非”的智慧分类器
人工智能·学习·机器学习·分类·回归·逻辑回归·监督学习
安思派Anspire2 小时前
AI智能体:完整课程(高级)
人工智能
540_5402 小时前
ADVANCE Day27
人工智能·python·机器学习
北邮刘老师2 小时前
马斯克的梦想与棋盘:空天地一体的智能体互联网
数据库·人工智能·架构·大模型·智能体·智能体互联网
AI码上来2 小时前
小智AI 如何自定义唤醒词+背景图:原理+流程拆解
人工智能
多则惑少则明2 小时前
AI大模型实用(八)Java快速实现智能体整理(使用LangChain4j-agentic来进行情感分析/分类)
java·人工智能·spring ai·langchain4j