langchain学习总结-OutputParser组件及使用技巧

OutputParser组件及使用技巧

概述

OutputParser是LangChain中用于解析大语言模型输出结果的组件。它可以将LLM的原始输出转换为结构化的数据格式,如字符串、JSON、列表等,方便后续处理和使用。


StrOutputParser - 字符串输出解析器

功能说明

StrOutputParser 是最简单也是最常用的输出解析器,用于将LLM的输出转换为纯字符串格式。

适用场景

  • 简单的问答场景
  • 文本生成任务
  • 不需要结构化输出的场景

代码示例

python 复制代码
#!/usr/bin/env python
# -*- coding: utf-8 -*-
import dotenv
from langchain_core.output_parsers import StrOutputParser
from langchain_core.prompts import ChatPromptTemplate
from langchain_openai import ChatOpenAI

dotenv.load_dotenv()

# 1.编排提示模板
prompt = ChatPromptTemplate.from_template("{query}")

# 2.构建大语言模型
llm = ChatOpenAI(model="moonshot-v1-8k")

# 3.创建字符串输出解析器
parser = StrOutputParser()

# 4.调用大语言模型生成结果并解析
content = parser.invoke(llm.invoke(prompt.invoke({"query": "你好,你是?"})))

print(content)

输出

复制代码
你好!我是Kimi,一个由月之暗面科技有限公司(Moonshot AI)开发的人工智能助手。我擅长多语言对话,并且能够提供安全、有帮助、准确的回答。如果你有任何问题或需要帮助,请随时告诉 我,我会尽我所能为你提供支持。

执行流程说明

复制代码
用户输入 → Prompt模板 → LLM处理 → AIMessage → StrOutputParser → 字符串输出

链式调用简化写法

可以将上述流程简化为链式调用:

python 复制代码
from langchain_core.output_parsers import StrOutputParser
from langchain_core.prompts import ChatPromptTemplate
from langchain_openai import ChatOpenAI

# 创建链式调用
chain = ChatPromptTemplate.from_template("{query}") | ChatOpenAI(model="moonshot-v1-8k") | StrOutputParser()

# 直接调用
result = chain.invoke({"query": "你好,你是谁?"})
print(result)

JsonOutputParser - JSON输出解析器

功能说明

JsonOutputParser 用于将LLM的输出解析为JSON格式的结构化数据。它可以配合Pydantic模型定义,强制LLM输出符合特定结构的JSON数据。

适用场景

  • 需要结构化输出的场景
  • 提取特定字段信息
  • 后续需要程序化处理输出的场景

核心组件

Pydantic BaseModel

使用Pydantic的BaseModel来定义JSON结构,通过Field添加字段描述,帮助LLM理解每个字段的含义。

关键方法
  • get_format_instructions(): 获取格式说明,告诉LLM如何输出
  • partial(): 部分填充提示模板

代码示例

python 复制代码
#!/usr/bin/env python
# -*- coding: utf-8 -*-
import dotenv
from langchain_core.output_parsers import JsonOutputParser
from langchain_core.prompts import ChatPromptTemplate
from pydantic import BaseModel, Field
from langchain_openai import ChatOpenAI

dotenv.load_dotenv()

# 1.创建一个json数据结构,用于告诉大语言模型这个json长什么样子
class Joke(BaseModel):
    # 冷笑话内容
    joke: str = Field(description="回答用户的冷笑话")
    # 冷笑话的笑点
    punchline: str = Field(description="这个冷笑话的笑点")

parser = JsonOutputParser(pydantic_object=Joke)

# 2.构建一个提示模板
# 使用partial预填充format_instructions,包含JSON格式说明
prompt = ChatPromptTemplate.from_template(
    "请根据用户的提问进行回答。\n{format_instructions}\n{query}"
).partial(format_instructions=parser.get_format_instructions())

# 3.构建一个大语言模型
llm = ChatOpenAI(model="moonshot-v1-8k")

# 4.传递提示并进行解析
joke = parser.invoke(llm.invoke(prompt.invoke({"query": "请讲一个关于程序员的冷笑话"})))

print(type(joke))  # <class 'dict'>
print(joke.get("punchline"))  # 获取笑点字段
print(joke)  # 完整的JSON字典

输出示例

python 复制代码
# 输出类似这样的结构:
{
    "joke": "为什么程序员总是混淆圣诞节和万圣节?",
    "punchline": "因为 Oct 31 == Dec 25"
}

工作流程

复制代码
定义BaseModel → 创建JsonOutputParser → 获取格式说明 → 构建Prompt → LLM生成 → 解析为字典

扩展阅读

相关推荐
llq_3502 小时前
Ant Design v5 样式兼容性问题与解决方案
前端
triumph_passion2 小时前
React Hook Form 状态下沉最佳实践
前端·react.js
Penge6662 小时前
ClickHouse 向量化执行:为什么能让查询快几十倍?
后端
心在飞扬2 小时前
langchain学习总结-两个Runnable核心类的讲解与使用
前端·后端
德育处主任2 小时前
在小程序做海报的话,Painter就很给力
前端·微信小程序·canvas
匠心码员2 小时前
Git Commit 提交规范:让每一次提交都清晰可读
前端
骑斑马的李司凌2 小时前
调试时卡半天?原来127.0.0.1和localhost的区别这么大!
前端
哈哈O哈哈哈2 小时前
Electron + Vue 3 + Node.js 的跨平台桌面应用示例项目
前端
ycbing2 小时前
设计并实现一个 MCP Server
前端