【橘子大模型】关于PromptTemplate

一、简介Prompt

在大模型应用中有一个概念叫做Prompt,我们来看一下百度百科对Prompt的定义。

prompt中文为"提示词"。在AI大模型中,Prompt的作用主要是给AI模型提示输入信息的上下文和输入模型的参数信息。

所以我们可以知道Prompt其实就是你问大模型的输入语言,也就是我们作为用户和大模型交互的输入。

二、关于PromptTemplate

看名字也能猜个七七八八,他是对我们用户输入大模型的一种模版配置。也就是说你可以按照你的模版来规范输入。我们制定一个模板,后面的输入都按照这个模板的语法格式,语言排布来输入,这样我们输入固定,起码输出就不会太离谱。

实际上prompt在大模型领域是个重要的概念,一个好的prompt是能提高你输出结果的质量的。

那我们来看一下langchain中的prompt的一些实现功能。

首先我们来看一下prompt的官方文档

首先它位于langchain_core.prompts这个包下面,然后我们来看看他的类继承结构。

第一眼,麻了,作为一个javaer,这个图我看到的第一眼就想起了spring那一堆工厂类的结构。属实是太难顶了。然后我们在spring中的经验可以拿来用一下,我们说子类一般是更强大更全面的。我们看到它其实底下有很多字类,其中的PromptTemplate是我们通用语言模型 的提示模板。我们当前正在处理的就是语言类的一个对话交互。所以我们就单独来看他。

ok,我们点进去看看他怎么用。PromptTemplate

1、PromptTemplate class

提示模板由字符串模板组成。它接受来自用户的一组参数,这些参数可用于为语言模型生成提示。

可以使用 f-strings (默认)、jinja2 或 mustache 语法对模板进行格式化。

其实就和我们在java中的String.format那种字符串占位差不多。

使用案例如下:

python 复制代码
from langchain_core.prompts import PromptTemplate

# 这里就是你的字符串模板,并且可以设置占位符
prompt = PromptTemplate.from_template("Say {foo}")
# 这里是给占位符设置值,也就是填充你的模板
prompt.format(foo="bar")

此时我们就得到了一个prompt,就可以作为输入传给大模型了。

下面我们就接着我们上文中的例子来使用一下。

python 复制代码
from langchain_core.prompts import PromptTemplate
from langchain_ollama import ChatOllama

#  构建llm
llm = ChatOllama(
    base_url = "http://127.0.0.1:11434",
    model = "deepseek-r1:8b",
    temperature = 0.5,
    num_predict = 500,
    max_tokens = 250
)

#  构建一个PromptTemplate,我们设置一个模板占位
promptTemplate = PromptTemplate.from_template("请问{model}模型的优点有哪些?")
#  传入占位,我们填充占位
prompt = promptTemplate.format(model = "deepseek")

# 执行我们填充好的prompt
content = llm.invoke(prompt).content
# 输出执行结果正文,我们就不输出那些元数据了,干扰观察
print(f"大模型回答的结果正文是{content}")
markdown 复制代码
大模型回答的结果正文是<think>
	省略思考过程
</think>

DeepSeek模型具有以下优点:

1. **跨领域知识应用**:能够处理各种问题,不受特定领域限制,适用于多种场景。

2. **多模态输入处理**:支持文本、图像、音频等多种数据类型的输入,提供更全面的信息分析。

3. **高效推理速度和资源利用率**:在保持性能的同时,节省计算资源,适合实时任务。

4. **强大的自我学习能力**:从经验中学习并优化,适应复杂情况,提升处理能力。

5. **灵活性

我们可以看到他是没毛病的。并且此时我们可以去langsmith中看一下,都是可以监控到的。

ok,至此我们完成了PromptTemplate输入模板。但是我们来看一个现象。

你大致能看出来每次输出的结果不太一样,而且吧,有时候结构还不太一样,假如我们要给客户使用,每次输出的结果不太一样好像还能接受,大致意思一样就行。但是你结构不一样这个就很难顶。

再比如你问ai,给我描述一下各国的文学,他其实会给你上网去找或者基于他的知识库去回答。你会得到一个很粗的描述结果。但是你说假如你是一个java开发者,你给我描述一下各国的文学,那他就会站在java开发的角度去回答,这样的结果可能是你更关注的。所以我们需要设置这样的一个角色,或者模板之类的配置。约束一下大模型的输出,也要有一个模板。这个模板叫做ChatPromptTemplate

2、ChatPromptTemplate

ok,我们来描述两个场景。

1、介绍一下当前的经济环境。

2、假如你是一个研究山西经济的专家,介绍一下当前的经济环境。

这两个问题,我们明显有一个前置条件告诉大模型。所以我们来看如何实现以及结果如何。

场景1不说了,我们上面PromptTemplate就是这样的。我们来看场景二。

场景二中我们告诉了大模型一个既定的事实,让他基于这个身份去做出回答。我们来看。文档

我们按照文档中的示例来实现我们这个需求。

python 复制代码
from langchain_core.prompts import ChatPromptTemplate
from langchain_ollama import ChatOllama


llm = ChatOllama(
    base_url = "http://127.0.0.1:11434",
    model = "deepseek-r1:8b",
    temperature = 0.5,
    num_predict = -2,
    max_tokens = 250
)

# 配置模板,分别设置系统模板和客户模板,human其实就是你要问啥,作为你这个角色来配置
# system就是你告诉大模型的一个前提,让他去干啥
promptTemplate = ChatPromptTemplate([
    ("system", "假如你是一个研究{cityMajor}的专家。"),
    ("human", "介绍一下当前的经济环境。"),
])
# 填充模板
prompt = promptTemplate.invoke({"cityMajor": "山西经济"})
content = llm.invoke(prompt).content
print(f"大模型回答的结果正文是{content}")

很显然,他是会按照他是山西经济专家这个角色来回答我们的问题的。

ok,我们再来看一个,其实这个ChatPromptTemplate我们配置了两个内容一个是system一个是human,其实等于我们弄了两个模板,组合到一起了,实际上这个很像netty中的那个编解码器,他还有一组子类。

分别是SystemMessagePromptTemplate和HumanMessagePromptTemplate。你可以分别配置这两个模板类,然后组合起来效果是一样的。

python 复制代码
from langchain_core.prompts import (
    ChatPromptTemplate,
    SystemMessagePromptTemplate,
    HumanMessagePromptTemplate
)
from langchain_ollama import ChatOllama

llm = ChatOllama(
    base_url = "http://127.0.0.1:11434",
    model = "deepseek-r1:8b",
    temperature = 0.5,
    num_predict = -2,
    max_tokens = 250
)
# 分别构建system和human两个模板,和上面的一起构建是一样的
sysTemplate = SystemMessagePromptTemplate.from_template("假如你是一个研究{cityMajor}的专家。")
humanTemplate = HumanMessagePromptTemplate.from_template("介绍一下当前的经济环境。")

promptTemplate = ChatPromptTemplate([
   sysTemplate,humanTemplate
])

prompt = promptTemplate.invoke({"cityMajor": "山西经济"})
content = llm.invoke(prompt).content
print(f"大模型回答的结果正文是{content}")

只不过这种看起来比较麻烦一点。

当然了还有一些能够简化的比如MessagesPlaceholder 这个你也可以试试。

三、扩展

其余还有一些类,我们可以使用起来来简化这个流程。

比如core包下面的messages

core.prompt包下的MessagesPlaceholder 都可以参照着文档来对程序进行扩展。

相关推荐
独好紫罗兰几秒前
洛谷题单3-P5718 【深基4.例2】找最小值-python-流程图重构
开发语言·python·算法
正脉科工 CAE仿真14 分钟前
基于ANSYS 概率设计和APDL编程的结构可靠性设计分析
人工智能·python·算法
程序员一诺39 分钟前
【Django开发】前后端分离django美多商城项目第15篇:商品搜索,1. Haystack介绍和安装配置【附代码文档】
后端·python·django·框架
kgduu1 小时前
打包python文件生成exe
python
Cool----代购系统API1 小时前
跨境速卖通与 API 接口数据分析
开发语言·python
Python之栈1 小时前
PandasAI:当数据分析遇上自然语言处理
人工智能·python·数据分析·pandas
小杨4041 小时前
python入门系列十三(多线程)
人工智能·python·pycharm
意.远1 小时前
在PyTorch中使用GPU加速:从基础操作到模型部署
人工智能·pytorch·python·深度学习
zhengdao99063 小时前
【论文笔记】Llama 3 技术报告
论文阅读·llama
你一定走了很远的路吧3 小时前
DeepSeek与ChatGPT的优势对比:选择合适的工具来提升工作效率
ai·chatgpt