( 教学 )Agent 构建 Prompt(提示词)3. StructuredOutputParser (结构化输出)

StructuredOutputParser 小于 1.0 版本,推荐使用 PydanticOutputParser 大于 1.0

StructuredOutputParser "结构化输出解析器"是一款非常有用的工具,它能够将大型语言模型(LLM)的响应格式化为字典结构,从而能够以键/值对的形式返回多个字段。

虽然 PydanticJSON 解析器具备强大的功能,但StructuredOutputParser"结构化输出解析器"对于功能较弱的模型(例如参数较少的本地模型)尤其有效。对于与像 GPTClaude 这样的高级模型相比智能程度较低的模型而言,它尤其有益。

通过使用结构化输出解析器,开发人员可以在各种 LLM 应用程序中保持数据的完整性和一致性,即使是在使用参数数量较少的模型时也是如此。

使用 ResponseSchemaStructuredOutputParser (0.3版本以前的写法,1.0版本已经弃用,改为更加现代化的方式)

  • 使用 ResponseSchema 类定义响应模式,以包含用户问题的答案和所使用的来源(网站)的 description

  • 使用 response_schemas 初始化 StructuredOutputParser,以根据定义的响应模式构建输出结构。

[注意] 在使用本地模型时,Pydantic 解析器可能经常无法正常工作。在这种情况下,使用 StructuredOutputParser 可以作为一个很好的替代解决方案。

所以对于这个情况后,在1.0版本中,推荐使用更加现代化的方式来实现结构化输出解析器。PydanticOutputParser 是一个基于 Pydantic 模型的解析器,它可以将 LLM 的响应解析为符合定义的 Pydantic 模型的实例。

现代化的结构化输出解析器 (1.0版本及以后)

方式1:使用 Pydantic 模型(推荐)

最灵活且功能最强大的方式,支持字段验证和嵌套结构:

python 复制代码
from pydantic import BaseModel, Field
class ResponseSchema(BaseModel):
    answer: str = Field(description="用户问题的答案")
    source: str = Field(description="所使用的来源(网站)的描述")

方式2:使用 TypedDict(简洁)

当你不需要运行时验证时的轻量级方式:

python 复制代码
from typing_extensions import TypedDict, Annotated

class ResponseSchema(TypedDict):
    answer: Annotated[str, Field(description="用户问题的答案")]
    source: Annotated[str, Field(description="所使用的来源(网站)的描述")]

使用方式1:使用 ResponseSchema

python 复制代码
from langchain.agents import create_agent
from langchain_openai  import ChatOpenAI

Qwen2_5_7B_Instruct_llm = ChatOpenAI(
    temperature=0.1,  # 控制输出的随机性和创造性,值越低输出越稳定可预测,值越高输出越有创意但可能偏离预期 (范围: 0.0 ~ 2.0)
    model_name="Qwen/Qwen2.5-7B-Instruct",  # 硅基流动支持的模型名称
    openai_api_key=os.getenv("SILICONFLOW_API_KEY"),  # 从环境变量获取API密钥
    openai_api_base="https://api.siliconflow.cn/v1"  # 硅基流动API的基础URL
)
template="尽可能好地回答用户的问题。\n{format_instructions}\n{question}"

agent = create_agent(
    model=Qwen2_5_7B_Instruct_llm,
    response_format=ResponseSchema,  # Agent 最终返回结构化格式
    system_prompt=system_prompt
)
agent.invoke({"question": "世界上最大的沙漠是什么?"})

使用方式2:使用 PydanticOutputParser

python 复制代码
from langchain.agents import create_agent
from langchain_openai  import ChatOpenAI
from langchain_core.output_parsers import PydanticOutputParser

Qwen2_5_7B_Instruct_llm = ChatOpenAI(
    temperature=0.1,  # 控制输出的随机性和创造性,值越低输出越稳定可预测,值越高输出越有创意但可能偏离预期 (范围: 0.0 ~ 2.0)
    model_name="Qwen/Qwen2.5-7B-Instruct",  # 硅基流动支持的模型名称
    openai_api_key=os.getenv("SILICONFLOW_API_KEY"),  # 从环境变量获取API密钥
    openai_api_base="https://api.siliconflow.cn/v1"  # 硅基流动API的基础URL
)
template="尽可能好地回答用户的问题。\n{format_instructions}\n{question}"

parser = PydanticOutputParser(pydantic_object=ResponseSchema)
prompt = template.format(format_instructions=parser.get_format_instructions())

chain = prompt | Qwen2_5_7B_Instruct_llm | output_parser  # 连接提示词、模型和输出解析器

# 提问:"世界上最大的沙漠是什么?"
chain.invoke({"question": "世界上最大的沙漠是什么?"})

使用流式输出

使用 chain.stream 方法来接收对 question 的流式响应:"一支足球队有多少名球员?"

python 复制代码
for chunk in chain.stream({"question": "一支足球队有多少名球员?"}):
    print(chunk)
相关推荐
Omics Pro6 分钟前
上海AI Lab+复旦大学:双轨协同实现自动化虚拟细胞建模
运维·人工智能·语言模型·自然语言处理·数据挖掘·数据分析·自动化
星爷AG I8 分钟前
19-2 符号学(AGI基础理论)
人工智能·agi
happyprince16 分钟前
2026年04月12日全球AI前沿动态
人工智能
xixixi7777722 分钟前
Token 经济引爆 AI 产业加速:从百模大战到百虾大战,谁在定义 2026 的中国 AI?
大数据·人工智能·机器学习·ai·大模型·算力·通信
爱上珍珠的贝壳23 分钟前
ESP32-S3-CAM:豆包语音识别文字后控制小车(一)——注册豆包火山引擎开发者接口
人工智能·语音识别·智能硬件·火山引擎·esp32-s3·豆包语音
七七powerful24 分钟前
运维养龙虾--使用Tidb skill,让 AI 写出「生产级」SQL
人工智能
IT枫斗者33 分钟前
MSE Nacos Prompt 管理:AI Agent 配置的工程化治理实践
网络·人工智能·websocket·网络协议·prompt·jar
love530love38 分钟前
Windows 下 vcpkg 依赖环境部署与全局化配置
人工智能·windows·vcpkg
wangfpp38 分钟前
AI生成UI的工程化实践:json-render概念、与A2UI对比及基于Qwen的实现
人工智能
Becomewiser39 分钟前
为什么你的Openclaw龙虾总是智障,ClaudeCode源码泄露揭露:Agent 的差距不在模型,在 Harness Engineering
人工智能