langchain学习总结-OutputParser组件及使用技巧

OutputParser组件及使用技巧

概述

OutputParser是LangChain中用于解析大语言模型输出结果的组件。它可以将LLM的原始输出转换为结构化的数据格式,如字符串、JSON、列表等,方便后续处理和使用。


StrOutputParser - 字符串输出解析器

功能说明

StrOutputParser 是最简单也是最常用的输出解析器,用于将LLM的输出转换为纯字符串格式。

适用场景

  • 简单的问答场景
  • 文本生成任务
  • 不需要结构化输出的场景

代码示例

python 复制代码
#!/usr/bin/env python
# -*- coding: utf-8 -*-
import dotenv
from langchain_core.output_parsers import StrOutputParser
from langchain_core.prompts import ChatPromptTemplate
from langchain_openai import ChatOpenAI

dotenv.load_dotenv()

# 1.编排提示模板
prompt = ChatPromptTemplate.from_template("{query}")

# 2.构建大语言模型
llm = ChatOpenAI(model="moonshot-v1-8k")

# 3.创建字符串输出解析器
parser = StrOutputParser()

# 4.调用大语言模型生成结果并解析
content = parser.invoke(llm.invoke(prompt.invoke({"query": "你好,你是?"})))

print(content)

输出

复制代码
你好!我是Kimi,一个由月之暗面科技有限公司(Moonshot AI)开发的人工智能助手。我擅长多语言对话,并且能够提供安全、有帮助、准确的回答。如果你有任何问题或需要帮助,请随时告诉 我,我会尽我所能为你提供支持。

执行流程说明

复制代码
用户输入 → Prompt模板 → LLM处理 → AIMessage → StrOutputParser → 字符串输出

链式调用简化写法

可以将上述流程简化为链式调用:

python 复制代码
from langchain_core.output_parsers import StrOutputParser
from langchain_core.prompts import ChatPromptTemplate
from langchain_openai import ChatOpenAI

# 创建链式调用
chain = ChatPromptTemplate.from_template("{query}") | ChatOpenAI(model="moonshot-v1-8k") | StrOutputParser()

# 直接调用
result = chain.invoke({"query": "你好,你是谁?"})
print(result)

JsonOutputParser - JSON输出解析器

功能说明

JsonOutputParser 用于将LLM的输出解析为JSON格式的结构化数据。它可以配合Pydantic模型定义,强制LLM输出符合特定结构的JSON数据。

适用场景

  • 需要结构化输出的场景
  • 提取特定字段信息
  • 后续需要程序化处理输出的场景

核心组件

Pydantic BaseModel

使用Pydantic的BaseModel来定义JSON结构,通过Field添加字段描述,帮助LLM理解每个字段的含义。

关键方法
  • get_format_instructions(): 获取格式说明,告诉LLM如何输出
  • partial(): 部分填充提示模板

代码示例

python 复制代码
#!/usr/bin/env python
# -*- coding: utf-8 -*-
import dotenv
from langchain_core.output_parsers import JsonOutputParser
from langchain_core.prompts import ChatPromptTemplate
from pydantic import BaseModel, Field
from langchain_openai import ChatOpenAI

dotenv.load_dotenv()

# 1.创建一个json数据结构,用于告诉大语言模型这个json长什么样子
class Joke(BaseModel):
    # 冷笑话内容
    joke: str = Field(description="回答用户的冷笑话")
    # 冷笑话的笑点
    punchline: str = Field(description="这个冷笑话的笑点")

parser = JsonOutputParser(pydantic_object=Joke)

# 2.构建一个提示模板
# 使用partial预填充format_instructions,包含JSON格式说明
prompt = ChatPromptTemplate.from_template(
    "请根据用户的提问进行回答。\n{format_instructions}\n{query}"
).partial(format_instructions=parser.get_format_instructions())

# 3.构建一个大语言模型
llm = ChatOpenAI(model="moonshot-v1-8k")

# 4.传递提示并进行解析
joke = parser.invoke(llm.invoke(prompt.invoke({"query": "请讲一个关于程序员的冷笑话"})))

print(type(joke))  # <class 'dict'>
print(joke.get("punchline"))  # 获取笑点字段
print(joke)  # 完整的JSON字典

输出示例

python 复制代码
# 输出类似这样的结构:
{
    "joke": "为什么程序员总是混淆圣诞节和万圣节?",
    "punchline": "因为 Oct 31 == Dec 25"
}

工作流程

复制代码
定义BaseModel → 创建JsonOutputParser → 获取格式说明 → 构建Prompt → LLM生成 → 解析为字典

扩展阅读

相关推荐
JarvanMo1 分钟前
7 个开源 iOS 应用,让你成为更好的开发者
前端·ios
杨凯凡2 分钟前
【022】JVM 运行时数据区与对象创建
java·jvm·后端
jjw_zyfx3 分钟前
css 点击显示并移动元素,再次点击移回元素并消失
前端·javascript·css
虎子_layor3 分钟前
Headless Chrome 该退休了?Obscura 正在给 AI Agent 换浏览器底座
前端·人工智能·后端
李日灐5 分钟前
<4>Linux 权限:从 Shell 核心原理 到 权限体系的底层逻辑 详解
linux·运维·服务器·开发语言·后端·面试·权限
深海鱼在掘金6 分钟前
Next.js从入门到实战保姆级教程(第六章):服务端组件与客户端组件
前端·typescript·next.js
Victor3567 分钟前
MongoDB(100)如何解决性能瓶颈?
后端
HookJames8 分钟前
Turnkey PCBA - Hero
前端·php
神奇小汤圆8 分钟前
面试官:“线上突然大量报错,你先查什么?” 我:“先查今天谁发了版” 面试官:......
后端
Victor3569 分钟前
MongoDB(99)如何处理MongoDB中的孤立数据?
后端