(LangChain实战5):LangChain消息模版ChatPromptTemplate

一、ChatPromptTemplate简介

ChatPromptTemplate是LangChain中用于构建对话式提示词的专用模板。相比普通的PromptTemplate,它能更好地处理多角色对话场景,支持System、Human、AI等多种消息类型。

二、创建ChatPromptTemplate的两种方式

2.1 构造方法实例化

python 复制代码
from langchain.prompts import ChatPromptTemplate

# 方式一:使用构造方法
chat_prompt = ChatPromptTemplate(
    messages=[
        ("system", "你是一个AI助手,你的名字叫{name}"),
        ("human", "我的问题是{question}")
    ],
    input_variables=["name", "question"],  # 明确指定输入变量
)

# 简洁写法
chat_prompt = ChatPromptTemplate([
    ("system", "你是一个AI助手,你的名字叫{name}"),
    ("human", "我的问题是{question}")
])

2.2 from_messages()方法

python 复制代码
# 方式二:使用from_messages()方法(推荐)
chat_prompt = ChatPromptTemplate.from_messages([
    ("system", "你是一个AI助手,你的名字叫{name}"),
    ("human", "我的问题是{question}")
])

两种方式对比:

  • 构造方法更灵活,可指定input_variables
  • from_messages()更简洁,自动推断变量

三、调用模板的四种方法

3.1 invoke()方法

python 复制代码
# invoke(): 传入字典,返回ChatPromptValue对象
response = chat_prompt.invoke(
    input={"name": "小智", "question": "1 + 2 + 3 = ?"}
)
print(f"返回类型: {type(response)}")
print(f"内容: {response}")

输出:

复制代码
返回类型: <class 'langchain_core.prompt_values.ChatPromptValue'>
内容: messages=[
    SystemMessage(content='你是一个AI助手,你的名字叫小智'),
    HumanMessage(content='我的问题是1 + 2 + 3 = ?')
]

3.2 format()方法

python 复制代码
# format(): 传入变量值,返回格式化字符串
formatted_text = chat_prompt.format(
    name="小智", 
    question="1 + 2 + 3 = ?"
)
print(f"返回类型: {type(formatted_text)}")
print(f"内容:\n{formatted_text}")

输出:

复制代码
返回类型: <class 'str'>
内容:
System: 你是一个AI助手,你的名字叫小智
Human: 我的问题是1 + 2 + 3 = ?

3.3 format_messages()方法

python 复制代码
# format_messages(): 传入变量值,返回消息列表
messages_list = chat_prompt.format_messages(
    name="小智",
    question="1 + 2 + 3 = ?"
)
print(f"返回类型: {type(messages_list)}")
print(f"内容: {messages_list}")

输出:

复制代码
返回类型: <class 'list'>
内容: [
    SystemMessage(content='你是一个AI助手,你的名字叫小智'),
    HumanMessage(content='我的问题是1 + 2 + 3 = ?')
]

3.4 format_prompt()方法

python 复制代码
# format_prompt(): 传入变量值,返回ChatPromptValue
prompt_value = chat_prompt.format_prompt(
    name="小智",
    question="1 + 2 + 3 = ?"
)
print(f"返回类型: {type(prompt_value)}")
print(f"内容: {prompt_value}")

输出:

复制代码
返回类型: <class 'langchain_core.prompt_values.ChatPromptValue'>
内容: messages=[
    SystemMessage(content='你是一个AI助手,你的名字叫小智'),
    HumanMessage(content='我的问题是1 + 2 + 3 = ?')
]

四、四种方法对比总结

方法 输入类型 输出类型 适用场景
invoke() 字典 ChatPromptValue 链式调用,需要结构化响应
format() 关键字参数 字符串 需要人类可读的文本
format_messages() 关键字参数 消息列表 需要直接传递给聊天模型
format_prompt() 关键字参数 ChatPromptValue 需要中间格式进行后续处理

五、完整版调用模型

python 复制代码
import os
from langchain_core.prompts import ChatPromptTemplate
from langchain_openai import ChatOpenAI
from dotenv import load_dotenv

# 加载env环境变量
load_dotenv()

# 获取对话模型
chat_model = ChatOpenAI(
    # 1.设置模型名称
    model="deepseek-chat",
    # 2.模型接口地址
    base_url= os.getenv('OPENAI_BASE_URL'),
    # 3.模型调用key
    api_key=os.getenv('OPENAI_API_KEY'),
)


# 实例化模版
chat_prompt_template = ChatPromptTemplate.from_messages([
    ("system", "你是一个AI助手,你的名字叫{name}"),
    ("human", "我的问题是{question}"),
])

# 填充模版参数
prompt = chat_prompt_template.invoke(input={"name": "小智", "question": "1 + 2 + 3 = ? "})

# 通过大模型调用提示词,得到响应数据
response = chat_model.invoke(prompt)
print(response)
相关推荐
zh15702340 分钟前
JavaScript中WorkerThreads解决服务端计算瓶颈
jvm·数据库·python
马丁聊GEO1 小时前
解码AI用户心智,筑牢可信GEO根基——悠易科技深度参与《中国AI用户态度与行为研究报告(2026)》发布会
人工智能·科技
nap-joker1 小时前
Fusion - Mamba用于跨模态目标检测
人工智能·目标检测·计算机视觉·fusion-mamba·可见光-红外成像融合·远距离/伪目标问题
一只幸运猫.1 小时前
2026Java 后端面试完整版|八股简答 + AI 大模型集成技术(最新趋势)
人工智能·面试·职场和发展
Old Uncle Tom1 小时前
OpenClaw 记忆系统 -- 记忆预加载
java·数据结构·算法·agent
Promise微笑1 小时前
2026年国产替代油介损测试仪:油介损全场景解决方案与技术演进
大数据·网络·人工智能
深海鱼在掘金1 小时前
深入浅出 LangChain —— 第三章:模型抽象层
人工智能·langchain·agent
生信碱移1 小时前
PACells:这个方法可以鉴定疾病/预后相关的重要细胞亚群,作者提供的代码流程可以学习起来了,甚至兼容转录组与 ATAC 两种数据类型!
人工智能·学习·算法·机器学习·数据挖掘·数据分析·r语言
workflower1 小时前
具身智能行业应用-生活服务业
大数据·人工智能·机器人·动态规划·生活
KaneLogger2 小时前
三省六部 Agent 这条路不通
agent·ai编程