langchain学习总结-OutputParser组件及使用技巧

OutputParser组件及使用技巧

概述

OutputParser是LangChain中用于解析大语言模型输出结果的组件。它可以将LLM的原始输出转换为结构化的数据格式,如字符串、JSON、列表等,方便后续处理和使用。


StrOutputParser - 字符串输出解析器

功能说明

StrOutputParser 是最简单也是最常用的输出解析器,用于将LLM的输出转换为纯字符串格式。

适用场景

  • 简单的问答场景
  • 文本生成任务
  • 不需要结构化输出的场景

代码示例

python 复制代码
#!/usr/bin/env python
# -*- coding: utf-8 -*-
import dotenv
from langchain_core.output_parsers import StrOutputParser
from langchain_core.prompts import ChatPromptTemplate
from langchain_openai import ChatOpenAI

dotenv.load_dotenv()

# 1.编排提示模板
prompt = ChatPromptTemplate.from_template("{query}")

# 2.构建大语言模型
llm = ChatOpenAI(model="moonshot-v1-8k")

# 3.创建字符串输出解析器
parser = StrOutputParser()

# 4.调用大语言模型生成结果并解析
content = parser.invoke(llm.invoke(prompt.invoke({"query": "你好,你是?"})))

print(content)

输出

复制代码
你好!我是Kimi,一个由月之暗面科技有限公司(Moonshot AI)开发的人工智能助手。我擅长多语言对话,并且能够提供安全、有帮助、准确的回答。如果你有任何问题或需要帮助,请随时告诉 我,我会尽我所能为你提供支持。

执行流程说明

复制代码
用户输入 → Prompt模板 → LLM处理 → AIMessage → StrOutputParser → 字符串输出

链式调用简化写法

可以将上述流程简化为链式调用:

python 复制代码
from langchain_core.output_parsers import StrOutputParser
from langchain_core.prompts import ChatPromptTemplate
from langchain_openai import ChatOpenAI

# 创建链式调用
chain = ChatPromptTemplate.from_template("{query}") | ChatOpenAI(model="moonshot-v1-8k") | StrOutputParser()

# 直接调用
result = chain.invoke({"query": "你好,你是谁?"})
print(result)

JsonOutputParser - JSON输出解析器

功能说明

JsonOutputParser 用于将LLM的输出解析为JSON格式的结构化数据。它可以配合Pydantic模型定义,强制LLM输出符合特定结构的JSON数据。

适用场景

  • 需要结构化输出的场景
  • 提取特定字段信息
  • 后续需要程序化处理输出的场景

核心组件

Pydantic BaseModel

使用Pydantic的BaseModel来定义JSON结构,通过Field添加字段描述,帮助LLM理解每个字段的含义。

关键方法
  • get_format_instructions(): 获取格式说明,告诉LLM如何输出
  • partial(): 部分填充提示模板

代码示例

python 复制代码
#!/usr/bin/env python
# -*- coding: utf-8 -*-
import dotenv
from langchain_core.output_parsers import JsonOutputParser
from langchain_core.prompts import ChatPromptTemplate
from pydantic import BaseModel, Field
from langchain_openai import ChatOpenAI

dotenv.load_dotenv()

# 1.创建一个json数据结构,用于告诉大语言模型这个json长什么样子
class Joke(BaseModel):
    # 冷笑话内容
    joke: str = Field(description="回答用户的冷笑话")
    # 冷笑话的笑点
    punchline: str = Field(description="这个冷笑话的笑点")

parser = JsonOutputParser(pydantic_object=Joke)

# 2.构建一个提示模板
# 使用partial预填充format_instructions,包含JSON格式说明
prompt = ChatPromptTemplate.from_template(
    "请根据用户的提问进行回答。\n{format_instructions}\n{query}"
).partial(format_instructions=parser.get_format_instructions())

# 3.构建一个大语言模型
llm = ChatOpenAI(model="moonshot-v1-8k")

# 4.传递提示并进行解析
joke = parser.invoke(llm.invoke(prompt.invoke({"query": "请讲一个关于程序员的冷笑话"})))

print(type(joke))  # <class 'dict'>
print(joke.get("punchline"))  # 获取笑点字段
print(joke)  # 完整的JSON字典

输出示例

python 复制代码
# 输出类似这样的结构:
{
    "joke": "为什么程序员总是混淆圣诞节和万圣节?",
    "punchline": "因为 Oct 31 == Dec 25"
}

工作流程

复制代码
定义BaseModel → 创建JsonOutputParser → 获取格式说明 → 构建Prompt → LLM生成 → 解析为字典

扩展阅读

相关推荐
浮尘笔记2 小时前
Go语言临时对象池:sync.Pool的原理与使用
开发语言·后端·golang
奔跑的web.3 小时前
TypeScript Enum 类型入门:从基础到实战
前端·javascript·typescript
盐真卿3 小时前
python2
java·前端·javascript
梦梦代码精4 小时前
BuildingAI vs Dify vs 扣子:三大开源智能体平台架构风格对比
开发语言·前端·数据库·后端·架构·开源·推荐算法
REDcker4 小时前
RESTful API设计规范详解
服务器·后端·接口·api·restful·博客·后端开发
seabirdssss4 小时前
《bootstrap is not defined 导致“获取配置详情失败”?一次前端踩坑实录》
前端·bootstrap·html
kgduu5 小时前
js之表单
开发语言·前端·javascript
没有bug.的程序员6 小时前
Java 序列化:Serializable vs. Protobuf 的性能与兼容性深度对比
java·开发语言·后端·反射·序列化·serializable·protobuf
谢尔登6 小时前
Vue3 响应式系统——computed 和 watch
前端·架构
愚公移码6 小时前
蓝凌EKP产品:主文档权限机制浅析
java·前端·数据库·蓝凌