(LangChain实战5):LangChain消息模版ChatPromptTemplate

一、ChatPromptTemplate简介

ChatPromptTemplate是LangChain中用于构建对话式提示词的专用模板。相比普通的PromptTemplate,它能更好地处理多角色对话场景,支持System、Human、AI等多种消息类型。

二、创建ChatPromptTemplate的两种方式

2.1 构造方法实例化

python 复制代码
from langchain.prompts import ChatPromptTemplate

# 方式一:使用构造方法
chat_prompt = ChatPromptTemplate(
    messages=[
        ("system", "你是一个AI助手,你的名字叫{name}"),
        ("human", "我的问题是{question}")
    ],
    input_variables=["name", "question"],  # 明确指定输入变量
)

# 简洁写法
chat_prompt = ChatPromptTemplate([
    ("system", "你是一个AI助手,你的名字叫{name}"),
    ("human", "我的问题是{question}")
])

2.2 from_messages()方法

python 复制代码
# 方式二:使用from_messages()方法(推荐)
chat_prompt = ChatPromptTemplate.from_messages([
    ("system", "你是一个AI助手,你的名字叫{name}"),
    ("human", "我的问题是{question}")
])

两种方式对比:

  • 构造方法更灵活,可指定input_variables
  • from_messages()更简洁,自动推断变量

三、调用模板的四种方法

3.1 invoke()方法

python 复制代码
# invoke(): 传入字典,返回ChatPromptValue对象
response = chat_prompt.invoke(
    input={"name": "小智", "question": "1 + 2 + 3 = ?"}
)
print(f"返回类型: {type(response)}")
print(f"内容: {response}")

输出:

复制代码
返回类型: <class 'langchain_core.prompt_values.ChatPromptValue'>
内容: messages=[
    SystemMessage(content='你是一个AI助手,你的名字叫小智'),
    HumanMessage(content='我的问题是1 + 2 + 3 = ?')
]

3.2 format()方法

python 复制代码
# format(): 传入变量值,返回格式化字符串
formatted_text = chat_prompt.format(
    name="小智", 
    question="1 + 2 + 3 = ?"
)
print(f"返回类型: {type(formatted_text)}")
print(f"内容:\n{formatted_text}")

输出:

复制代码
返回类型: <class 'str'>
内容:
System: 你是一个AI助手,你的名字叫小智
Human: 我的问题是1 + 2 + 3 = ?

3.3 format_messages()方法

python 复制代码
# format_messages(): 传入变量值,返回消息列表
messages_list = chat_prompt.format_messages(
    name="小智",
    question="1 + 2 + 3 = ?"
)
print(f"返回类型: {type(messages_list)}")
print(f"内容: {messages_list}")

输出:

复制代码
返回类型: <class 'list'>
内容: [
    SystemMessage(content='你是一个AI助手,你的名字叫小智'),
    HumanMessage(content='我的问题是1 + 2 + 3 = ?')
]

3.4 format_prompt()方法

python 复制代码
# format_prompt(): 传入变量值,返回ChatPromptValue
prompt_value = chat_prompt.format_prompt(
    name="小智",
    question="1 + 2 + 3 = ?"
)
print(f"返回类型: {type(prompt_value)}")
print(f"内容: {prompt_value}")

输出:

复制代码
返回类型: <class 'langchain_core.prompt_values.ChatPromptValue'>
内容: messages=[
    SystemMessage(content='你是一个AI助手,你的名字叫小智'),
    HumanMessage(content='我的问题是1 + 2 + 3 = ?')
]

四、四种方法对比总结

方法 输入类型 输出类型 适用场景
invoke() 字典 ChatPromptValue 链式调用,需要结构化响应
format() 关键字参数 字符串 需要人类可读的文本
format_messages() 关键字参数 消息列表 需要直接传递给聊天模型
format_prompt() 关键字参数 ChatPromptValue 需要中间格式进行后续处理

五、完整版调用模型

python 复制代码
import os
from langchain_core.prompts import ChatPromptTemplate
from langchain_openai import ChatOpenAI
from dotenv import load_dotenv

# 加载env环境变量
load_dotenv()

# 获取对话模型
chat_model = ChatOpenAI(
    # 1.设置模型名称
    model="deepseek-chat",
    # 2.模型接口地址
    base_url= os.getenv('OPENAI_BASE_URL'),
    # 3.模型调用key
    api_key=os.getenv('OPENAI_API_KEY'),
)


# 实例化模版
chat_prompt_template = ChatPromptTemplate.from_messages([
    ("system", "你是一个AI助手,你的名字叫{name}"),
    ("human", "我的问题是{question}"),
])

# 填充模版参数
prompt = chat_prompt_template.invoke(input={"name": "小智", "question": "1 + 2 + 3 = ? "})

# 通过大模型调用提示词,得到响应数据
response = chat_model.invoke(prompt)
print(response)
相关推荐
橙露4 小时前
数据特征工程:缺失值、异常值、标准化一站式解决方案
人工智能·机器学习
新加坡内哥谈技术4 小时前
OpenAI 的 Codex 团队如何工作并利用 AI
人工智能
星河耀银海4 小时前
人工智能大模型的安全与隐私保护:技术防御与合规实践
人工智能·安全·ai·隐私
直有两条腿4 小时前
【大模型】Langchain4j
java·langchain
love530love4 小时前
Scoop 完整迁移指南:从 C 盘到 D 盘的无缝切换
java·服务器·前端·人工智能·windows·scoop
njsgcs4 小时前
agentscope提取msg+llama_index 查询
人工智能
哈里谢顿4 小时前
Django 应用 OOM(Out of Memory)故障的定位思路和排查方法
python·django
小和尚同志5 小时前
什么?oh-my-opencode 太重了?那试试 oh-my-opencode-slim
人工智能·aigc
甄心爱学习5 小时前
【python】获取所有长度为 k 的二进制字符串
python·算法
一路往蓝-Anbo5 小时前
第 9 章:Linux 设备树 (DTS) ——屏蔽与独占外设
linux·运维·服务器·人工智能·stm32·嵌入式硬件