langchain教程-(1)Prompt模板

LangChain 的核心组件

  1. 模型 I/O 封装
    • LLMs:大语言模型
    • Chat Models:一般基于 LLMs,但按对话结构重新封装
    • PromptTemple:提示词模板
    • OutputParser:解析输出
  2. 数据连接封装
    • Document Loaders:各种格式文件的加载器
    • Document Transformers:对文档的常用操作,如:split, filter, translate, extract metadata, etc
    • Text Embedding Models:文本向量化表示,用于检索等操作(啥意思?别急,后面详细讲)
    • Verctorstores: (面向检索的)向量的存储
    • Retrievers: 向量的检索
  3. 记忆封装
    • Memory:这里不是物理内存,从文本的角度,可以理解为"上文"、"历史记录"或者说"记忆力"的管理
  4. 架构封装
    • Chain:实现一个功能或者一系列顺序功能组合
    • Agent:根据用户输入,自动规划执行步骤,自动选择每步需要的工具,最终完成用户指定的功能
      • Tools:调用外部功能的函数,例如:调 google 搜索、文件 I/O、Linux Shell 等等
      • Toolkits:操作某软件的一组工具集,例如:操作 DB、操作 Gmail 等等
  5. Callbacks

官方文档地址:https://python.langchain.com/docs/get_started

多轮对话封装

AIMessage, #等价于OpenAI接口中的assistant role 大模型的回复

HumanMessage, #等价于OpenAI接口中的user role

SystemMessage #等价于OpenAI接口中的system role

bash 复制代码
import os
from dotenv import load_dotenv
load_dotenv()

from langchain_openai import AzureChatOpenAI
model = AzureChatOpenAI(azure_endpoint=os.environ["AZURE_OPENAI_ENDPOINT"],
        azure_deployment=os.environ["AZURE_OPENAI_DEPLOYMENT_NAME"],
        openai_api_version=os.environ["AZURE_OPENAI_API_VERSION"],
        temperature=0,
        model_kwargs={"seed": 42})

from langchain.schema import (
    AIMessage, #等价于OpenAI接口中的assistant role
    HumanMessage, #等价于OpenAI接口中的user role
    SystemMessage #等价于OpenAI接口中的system role
)

messages = [
    SystemMessage(content="你是一个课程助理。"),
    HumanMessage(content="我来上课了")
]
response = model(messages)
print(response)  #  AIMessage

Prompt模板封装

bash 复制代码
import os
from dotenv import load_dotenv, find_dotenv

_ = load_dotenv(find_dotenv())
from langchain.prompts import ChatPromptTemplate
from langchain.prompts.chat import SystemMessagePromptTemplate, HumanMessagePromptTemplate
from langchain_openai import AzureChatOpenAI

template = ChatPromptTemplate.from_messages(
    [
        SystemMessagePromptTemplate.from_template("你是{product}的客服助手。你的名字叫{name}"),
        HumanMessagePromptTemplate.from_template("{query}"),
    ]
)
llm = AzureChatOpenAI(azure_endpoint=os.environ["AZURE_OPENAI_ENDPOINT"],
        azure_deployment=os.environ["AZURE_OPENAI_DEPLOYMENT_NAME"],
        openai_api_version=os.environ["AZURE_OPENAI_API_VERSION"],
        temperature=0,
        model_kwargs={"seed": 42})

prompt = template.format_messages(
        product="AGI课堂",
        name="瓜瓜",
        query="你是谁"
    )

response = llm(prompt)

# chain = template | llm
# response = chain.invoke({"product": "AGI课堂",
#                          "name": "瓜瓜",
#                        "query": "你是谁"})

print(response)  #  AIMessage

从文件加载Prompt模板

yaml格式

yaml 复制代码
 _type: prompt
input_variables:
    ["adjective", "content"]
template: 
    Tell me a {adjective} joke about {content}.

json格式

json 复制代码
{
    "_type": "prompt",
    "input_variables": ["adjective", "content"],
    "template": "Tell me a {adjective} joke about {content}."
}

Template可以单独存放在.txt文件夹中

json 复制代码
{
    "_type": "prompt",
    "input_variables": ["adjective", "content"],
    "template_path": "simple_template.txt"
}
python 复制代码
# cat simple_template.txt
# Tell me a {adjective} joke about {content}.

from langchain.prompts import load_prompt

prompt = load_prompt("test.json")

print(prompt.format(adjective="funny", content="fox"))
# Tell me a funny joke about fox.
相关推荐
沐森15 小时前
langchain相关介绍
langchain·ai编程
还有你Y20 小时前
微调技术:Prefix-tuning vs Prompt-tuning vs P-tuning
prompt
eihh2333320 小时前
Prompt管理技巧
人工智能·prompt
2501_915374351 天前
LangChain自动化工作流实战教程:从任务编排到智能决策
python·langchain·自动化
sky丶Mamba1 天前
如何编写高效的Prompt:从入门到精通
人工智能·prompt
chilavert3181 天前
深入剖析AI大模型:Prompt 开发工具与Python API 调用与技术融合
人工智能·python·prompt
囚生CY1 天前
【学习笔记】Langchain基础(二)
笔记·学习·langchain
2501_915374352 天前
LangChain开发智能问答(RAG)系统实战教程:从零构建知识驱动型AI助手
人工智能·langchain
AI大模型2 天前
构建可调用外部工具的AI助手:LangChain函数调用与API集成详解
程序员·langchain·llm
小陈phd2 天前
langchain从入门到精通(七)——利用回调功能调试链应用 - 让过程更透明
android·java·langchain