OutputParser组件及使用技巧
概述
OutputParser是LangChain中用于解析大语言模型输出结果的组件。它可以将LLM的原始输出转换为结构化的数据格式,如字符串、JSON、列表等,方便后续处理和使用。
StrOutputParser - 字符串输出解析器
功能说明
StrOutputParser 是最简单也是最常用的输出解析器,用于将LLM的输出转换为纯字符串格式。
适用场景
- 简单的问答场景
- 文本生成任务
- 不需要结构化输出的场景
代码示例
python
#!/usr/bin/env python
# -*- coding: utf-8 -*-
import dotenv
from langchain_core.output_parsers import StrOutputParser
from langchain_core.prompts import ChatPromptTemplate
from langchain_openai import ChatOpenAI
dotenv.load_dotenv()
# 1.编排提示模板
prompt = ChatPromptTemplate.from_template("{query}")
# 2.构建大语言模型
llm = ChatOpenAI(model="moonshot-v1-8k")
# 3.创建字符串输出解析器
parser = StrOutputParser()
# 4.调用大语言模型生成结果并解析
content = parser.invoke(llm.invoke(prompt.invoke({"query": "你好,你是?"})))
print(content)
输出
你好!我是Kimi,一个由月之暗面科技有限公司(Moonshot AI)开发的人工智能助手。我擅长多语言对话,并且能够提供安全、有帮助、准确的回答。如果你有任何问题或需要帮助,请随时告诉 我,我会尽我所能为你提供支持。
执行流程说明
用户输入 → Prompt模板 → LLM处理 → AIMessage → StrOutputParser → 字符串输出
链式调用简化写法
可以将上述流程简化为链式调用:
python
from langchain_core.output_parsers import StrOutputParser
from langchain_core.prompts import ChatPromptTemplate
from langchain_openai import ChatOpenAI
# 创建链式调用
chain = ChatPromptTemplate.from_template("{query}") | ChatOpenAI(model="moonshot-v1-8k") | StrOutputParser()
# 直接调用
result = chain.invoke({"query": "你好,你是谁?"})
print(result)
JsonOutputParser - JSON输出解析器
功能说明
JsonOutputParser 用于将LLM的输出解析为JSON格式的结构化数据。它可以配合Pydantic模型定义,强制LLM输出符合特定结构的JSON数据。
适用场景
- 需要结构化输出的场景
- 提取特定字段信息
- 后续需要程序化处理输出的场景
核心组件
Pydantic BaseModel
使用Pydantic的BaseModel来定义JSON结构,通过Field添加字段描述,帮助LLM理解每个字段的含义。
关键方法
get_format_instructions(): 获取格式说明,告诉LLM如何输出partial(): 部分填充提示模板
代码示例
python
#!/usr/bin/env python
# -*- coding: utf-8 -*-
import dotenv
from langchain_core.output_parsers import JsonOutputParser
from langchain_core.prompts import ChatPromptTemplate
from pydantic import BaseModel, Field
from langchain_openai import ChatOpenAI
dotenv.load_dotenv()
# 1.创建一个json数据结构,用于告诉大语言模型这个json长什么样子
class Joke(BaseModel):
# 冷笑话内容
joke: str = Field(description="回答用户的冷笑话")
# 冷笑话的笑点
punchline: str = Field(description="这个冷笑话的笑点")
parser = JsonOutputParser(pydantic_object=Joke)
# 2.构建一个提示模板
# 使用partial预填充format_instructions,包含JSON格式说明
prompt = ChatPromptTemplate.from_template(
"请根据用户的提问进行回答。\n{format_instructions}\n{query}"
).partial(format_instructions=parser.get_format_instructions())
# 3.构建一个大语言模型
llm = ChatOpenAI(model="moonshot-v1-8k")
# 4.传递提示并进行解析
joke = parser.invoke(llm.invoke(prompt.invoke({"query": "请讲一个关于程序员的冷笑话"})))
print(type(joke)) # <class 'dict'>
print(joke.get("punchline")) # 获取笑点字段
print(joke) # 完整的JSON字典
输出示例
python
# 输出类似这样的结构:
{
"joke": "为什么程序员总是混淆圣诞节和万圣节?",
"punchline": "因为 Oct 31 == Dec 25"
}
工作流程
定义BaseModel → 创建JsonOutputParser → 获取格式说明 → 构建Prompt → LLM生成 → 解析为字典
扩展阅读
- LangChain官方文档: python.langchain.com/docs/module...
- Pydantic文档: docs.pydantic.dev/