深入浅出 langchain 1. Prompt 与 Model

示例

从代码入手来看原理

python 复制代码
from langchain_core.output_parsers import StrOutputParser  
from langchain_core.prompts import ChatPromptTemplate  
from langchain_openai import ChatOpenAI  
  
prompt = ChatPromptTemplate.from_template("tell me a short joke about {topic}")  
model = ChatOpenAI(model="gpt-4")  
output_parser = StrOutputParser()  
  
chain = prompt | model | output_parser  
  
chain.invoke({"topic": "ice cream"})

chain = prompt | model | output_parser

|是 Unix 管道操作符, 将不同的组件链接到一起, 一组组件的输出作为下一组件的输入.

Prompt

prompt 是一个 BasePromptTemplate ,这意味着它接收一个模板变量的字典并生成一个 PromptValue 。一个 PromptValue 是一个完成提示的包装器,可以传递给 LLM (接受字符串作为输入)或 ChatModel (接受消息序列作为输入)。它可以与任何语言模型类型一起工作,因为它定义了生成 BaseMessage 和生成字符串的逻辑。

以下是 PromptValue 的输入

python 复制代码
prompt_value = prompt.invoke({"topic": "ice cream"})

prompt_value
# ChatPromptValue(messages=[HumanMessage(content='tell me a short joke about ice cream')])

prompt_value.to_messages()
# [HumanMessage(content='tell me a short joke about ice cream')]

prompt_value.to_string()
# 'Human: tell me a short joke about ice cream'

Model

然后将 PromptValue 传递给 model 。在这种情况下,我们的 model 是一个 ChatModel ,意味着它将输出一个 BaseMessage

python 复制代码
message = model.invoke(prompt_value)  

message
# AIMessage(content="Why don't ice creams ever get invited to parties?\n\nBecause they always bring a melt down!")

如果我们的 model 是一个 LLM ,它会输出一个字符串。

python 复制代码
from langchain_openai.llms import OpenAI  
  
llm = OpenAI(model="gpt-3.5-turbo-instruct")  
llm.invoke(prompt_value)

# '\n\nRobot: Why did the ice cream truck break down? Because it had a meltdown!'

Output parser

最后,我们将我们的 model 输出传递给 output_parser ,这是一个 BaseOutputParser ,它接受字符串或 BaseMessage 作为输入。这个 StrOutputParser 特别简单地将任何输入转换为字符串

python 复制代码
output_parser.invoke(message)

# "Why did the ice cream go to therapy? \n\nBecause it had too many toppings and couldn't find its cone-fidence!"

Summary

运行流程图如下:

我们将用户输入变成字典后, 传递给 PromptTemplate 包装成 PromptValue, 传递给 ChatModel 后, Model 给我们返回 ChatMessage, 再将其传递给 StrOutputParser, 最终解析成 String 类型

相关推荐
大怪v18 分钟前
AI抢饭?前端佬:我要验牌!
前端·人工智能·程序员
冬奇Lab22 分钟前
OpenClaw 深度解析(六):节点、Canvas 与子 Agent
人工智能·开源
刀法如飞2 小时前
AI提示词框架深度对比分析
人工智能·ai编程
IT_陈寒3 小时前
Python开发者必知的5大性能陷阱:90%的人都踩过的坑!
前端·人工智能·后端
1G4 小时前
openclaw控制浏览器/自动化的playwright MCP + Mcporter方案实现
人工智能
踩着两条虫4 小时前
VTJ.PRO 双向代码转换原理揭秘
前端·vue.js·人工智能
扉川川4 小时前
OpenClaw 架构解析:一个生产级 AI Agent 是如何设计的
前端·人工智能
星浩AI4 小时前
让模型自己写 Skills——从素材到自动生成工作流
人工智能·后端·agent
千寻girling8 小时前
Python 是用来做 AI 人工智能 的 , 不适合开发 Web 网站 | 《Web框架》
人工智能·后端·算法
AI攻城狮8 小时前
OpenClaw 里 TAVILY_API_KEY 明明写在 ~/.bashrc,为什么还是失效?一次完整排查与修复
人工智能·云原生·aigc