LangChain:使用表达式语言优化提示词链

在 LangChain 里,LCEL 即 LangChain Expression Language(LangChain 表达式语言),本文为你详细介绍它的定义、作用、优势并举例说明,从简单示例到复杂组合示例,让你快速掌握LCEL表达式语言使用技巧。

定义

LangChain Expression Language(LCEL)是 LangChain 推出的一种用于构建和编排链(chains)、代理(agents)等组件的声明式语言。它允许开发者以一种简洁、直观的方式将不同的 LangChain 组件组合在一起,定义复杂的工作流,而无需编写大量的传统 Python 代码来实现组件之间的连接和交互。

作用

  • 快速构建工作流:能够快速将各种 LangChain 组件(如大语言模型、提示模板、工具等)组合成一个完整的工作流。例如,开发者可以轻松地将一个大语言模型与特定的提示模板以及一些外部工具(如搜索引擎、数据库查询工具)组合在一起,实现一个具备信息检索和知识问答功能的应用。
  • 清晰表达逻辑:以声明式的方式描述组件之间的交互逻辑,使得代码更加清晰易懂。无论是简单的线性流程还是复杂的分支、循环逻辑,都能通过 LCEL 清晰地表达出来,便于开发者理解和维护。
  • 灵活配置和调整:方便开发者对工作流进行灵活的配置和调整。可以根据不同的需求,快速替换工作流中的某个组件,或者修改组件之间的连接方式,而不需要对整个代码结构进行大规模的改动。

优势

  • 简洁性:相比传统的 Python 代码实现方式,LCEL 代码更加简洁。它减少了大量的样板代码,让开发者能够更专注于业务逻辑的定义,提高了开发效率。
  • 可读性:声明式的语法使得代码的可读性大大提高。即使是非专业的开发者也能快速理解工作流的整体结构和各个组件之间的关系,便于团队协作和知识共享。
  • 可组合性 :支持将多个较小的工作流组合成更大、更复杂的工作流。这种高度的可组合性使得开发者可以根据不同的场景和需求,灵活地构建各种复杂的应用。

简单示例

以下是一个简单的 LCEL 示例,展示了如何使用 LCEL 构建一个基本的问答链:

python 复制代码
from langchain.chat_models import ChatOpenAI
from langchain.prompts import ChatPromptTemplate
from langchain.schema.runnable import RunnablePassthrough
import os

# 设置 OpenAI API 密钥
os.environ["OPENAI_API_KEY"] = "your_openai_api_key"

# 初始化大语言模型
llm = ChatOpenAI(temperature=0)

# 定义提示模板
prompt = ChatPromptTemplate.from_messages([
    ("human", "{question}")
])

# 使用 LCEL 构建链
chain = (
    RunnablePassthrough.assign() 
    | prompt 
    | llm
)

# 提出问题
question = "苹果公司是哪一年成立的?"
answer = chain.invoke({"question": question})

print(f"问题: {question}")
print(f"答案: {answer.content}")

在这个示例中,首先初始化了 OpenAI 的聊天模型和一个简单的提示模板。然后使用 LCEL 的语法,通过 | 符号将 RunnablePassthrough、提示模板和大语言模型连接起来,构建了一个完整的问答链。最后,向链中输入一个问题,调用 invoke 方法获取模型的回答并打印输出。

提示词链组合示例

我们只需将标题值嵌入到下一个提示模板中,并使用RunnablePassthrough。现在,如果我们想进一步延长这个过程,我们可以简单地重复该过程。

python 复制代码
import streamlit as st
from langchain.chat_models import ChatOpenAI
from langchain.prompts import PromptTemplate
from langchain.schema import StrOutputParser
from langchain.schema.runnable import RunnablePassthrough

st.title('Story Creator')
topic = st.text_input('Choose a topic to create a story about')

title_prompt = PromptTemplate.from_template(
    "Write a great title for a story about {topic}"
)

story_prompt = PromptTemplate.from_template(
    """You are a writer. Given the title of story, it is your job to write a story for that title.

Title: {title}"""
)

llm = ChatOpenAI()

title_chain = title_prompt | llm | StrOutputParser()
story_chain = story_prompt | llm | StrOutputParser()
chain = {"title": title_chain} | RunnablePassthrough.assign(story=story_chain)

if topic:
    result = chain.invoke({"topic": topic})
    st.header(result['title'])
    st.write(result['story'])

这里主要解释下核心代码:

  • streamlit是一个用于快速构建数据应用和 Web 界面的 Python 库。如果未接触过,可以简单理解未html表单,下面是设置表单页面标题,然后定义输入文本框。

  • st.title('Story Creator'):在 Streamlit 应用中设置页面标题为 Story Creator

  • st.text_input('Choose a topic to create a story about'):创建一个文本输入框,提示用户输入一个用于创作故事的主题,并将用户输入的值存储在变量 topic 中。

  • title_chain:将 title_promptllmStrOutputParser| 操作符连接起来,形成一个链。这个链的作用是根据用户输入的主题生成故事标题,并将模型的输出解析为字符串。

  • story_chain:将 story_promptllmStrOutputParser| 操作符连接起来,形成一个链。这个链的作用是根据生成的标题创作故事,并将模型的输出解析为字符串。

  • chain:将 title_chainstory_chain 组合起来。{"title": title_chain} 表示将 title_chain 的输出作为键为 title 的值,RunnablePassthrough.assign(story=story_chain) 表示将 story_chain 的输出作为键为 story 的值,最终形成一个包含标题和故事内容的结果。

现在我们知道如何用RunnablePassthrough传递值。下面我们想进一步延长这个过程,我们可以简单地重复该过程。

python 复制代码
import streamlit as st
from langchain.chat_models import ChatOpenAI
from langchain.prompts import PromptTemplate
from langchain.schema import StrOutputParser
from langchain.schema.runnable import RunnablePassthrough

st.title('Story Creator')
topic = st.text_input('Choose a topic to create a story about')

title_prompt = PromptTemplate.from_template(
    "Write a great title for a story about {topic}"
)

story_prompt = PromptTemplate.from_template(
    """You are a writer. Given the title of story, it is your job to write a story for that title.

Title: {title}"""
)

review_prompt = PromptTemplate.from_template(
    """You are a critic. Given a story, it is your job to write a review for that story.

Title: {title}
Story: {story}"""
)

llm = ChatOpenAI()

title_chain = title_prompt | llm | StrOutputParser()
story_chain = story_prompt | llm | StrOutputParser()
review_chain = review_prompt | llm | StrOutputParser()
chain = ({"title": title_chain}
         | RunnablePassthrough.assign(story=story_chain)
         | RunnablePassthrough.assign(review=review_chain))

if topic:
    result = chain.invoke({"topic": topic})
    st.header(result['title'])
    st.write(result['story'])
    st.header("Review")
    st.write(result['review'])

该示例在之前基础上,增加了评论功能。

总结

LCEL能够快速将各种 LangChain 组件(如大语言模型、提示模板、工具等)组合成一个完整的工作流。让开发者可以轻松地将大语言模型与特定的提示模板以及一些外部工具组合在一起,灵活地满足各类需求应用。

相关推荐
花千树-01038 分钟前
LangChain教程 - RAG - PDF解析
langchain·pdf
橙意满满的西瓜大侠2 天前
langchain基础(二)
langchain
uncle_ll4 天前
ChatGPT大模型极简应用开发-CH5-使用 LangChain 框架和插件增强 LLM 的功能
gpt·chatgpt·langchain·llm·rag
码--到成功4 天前
langchain 入门(一)
langchain
爱吃面的猫7 天前
Langchain+文心一言调用
langchain·文心一言
爱吃面的猫7 天前
Langchain+讯飞星火大模型Spark Max调用
langchain
大模型铲屎官9 天前
玩转 LangChain:从文档加载到高效问答系统构建的全程实战
人工智能·python·ai·langchain·nlp·文档加载·问答系统构建
玩电脑的辣条哥10 天前
怎么使用langchain和ollama自己简单开发搭建一个本地有记忆的大模型?
langchain·flask·数字人管家·ai管家·大模型记忆
for6215 天前
langchain4j执行源码分析
java·langchain