POML Python Core API 参考

POML Python Core API 参考

导语

本文基于 POML 官方文档的 Python Core APIs 参考页面,梳理核心接口的用途与用法。POML(Prompt Orchestration Markup Language)用于创建结构化的提示与对话;核心 API 提供对 POML 标记的处理能力,并支持可选的追踪与多种后端集成。

概览与功能说明

  • poml():处理 POML 标记,按指定格式返回结果,可选择聊天模式或单次提示,并支持将输出保存到文件。
  • set_trace():启用/关闭追踪,并按需接入后端(local、weave、agentops、mlflow)。
  • clear_trace() / get_trace():清理或获取追踪日志副本。
  • trace_artifact():为最近一次 poml 调用写入额外的工件文件(实验性)。
  • 说明要点:
    • 在启用 set_trace() 时,会自动记录调用详情。
    • 支持多种输出格式(如 rawmessage_dictdictopenai_chatlangchainpydantic)。
    • 在聊天格式下支持多模态内容(例如图片)。

核心 API 与参数

set_trace(enabled=True, /, *, trace_dir=None)

  • 作用:启用或禁用 poml 调用的追踪,并可选择后端集成。
  • 参数:
    • enabled: bool | List[str] | str
      • True:仅启用本地追踪(等价于 ["local"]
      • False:关闭所有追踪(等价于 []
      • "local" | "weave" | "agentops" | "mlflow":启用单个后端
      • List[str]:启用多个后端(指定任一后端时会自动启用本地追踪)
    • trace_dir: Optional[str | Path]:为本地追踪指定目录;开启本地追踪时会在其中创建以时间戳命名的子目录。
  • 返回:Optional[Path],若启用本地追踪则返回追踪目录路径,否则为 None
  • 其他:可通过环境变量 POML_TRACE 与 Node.js 共享目录。可用后端:
    • local:将追踪文件保存到磁盘
    • weave:上报到 Weights & Biases Weave(需要本地追踪)
    • agentops:上报到 AgentOps(需要本地追踪)
    • mlflow:上报到 MLflow(需要本地追踪)

poml(markup, context=None, stylesheet=None, chat=True, output_file=None, format='message_dict', extra_args=None)

  • 作用:处理 POML 标记并按指定格式返回结果。
  • 参数(节选):
    • markup: str | Path:POML 源文本,或指向 .poml 文件的路径;若字符串看起来像路径但文件不存在,会发出警告并按源文本处理。
    • context: dict | str | Path | None:注入模板的上下文,可为字典、JSON 字符串或 JSON 文件路径。
    • stylesheet: dict | str | Path | None:渲染样式,支持字典、JSON 字符串或 JSON 文件路径。
    • chat: bool:是否按"聊天"处理(默认 TrueFalse 时按单条提示处理)。
    • output_file: str | Path | None:可选的输出保存路径;未提供则直接返回结果而不落盘。
    • format:输出格式,支持:
      • "raw":返回原始字符串
      • "message_dict":仅返回消息数组(兼容旧格式)
      • "dict":包含 messagesschematoolsruntime 的完整结构
      • "openai_chat":OpenAI Chat Completion 兼容格式(含工具/模式)
      • "langchain":LangChain 消息与元数据
      • "pydantic":返回强类型 PomlFrame
    • extra_args: Optional[List[str]]:额外传给 POML 处理器的命令行参数。
  • 返回:list | dict | str | PomlFrame,与 format 对应。
  • 说明:
    • openai_chat:在有工具/模式时包含 toolsresponse_format;运行时参数转换为 snake_case
    • langchain:保留全部元数据并返回 LangChain 格式的 messages
    • pydantic:返回 PomlFrame,其中 messagesPomlMessage 对象,并带 output_schematoolsruntime
  • 异常:
    • FileNotFoundError:指定的文件路径不存在时
    • RuntimeError:处理器失败或后端追踪要求未满足时
    • ValueError:输出格式非法时

clear_trace()

  • 作用:清空已收集的追踪日志。

get_trace()

  • 作用:返回追踪日志的副本。

trace_artifact(file_suffix, contents)

  • 作用:为最近一次 poml 调用写入额外工件文件(实验性)。
  • 返回:Optional[Path],若没有可用前缀则返回 None

示例(来自文档)

python 复制代码
>>> result = poml("<p>Hello {{name}}!</p>", context={"name": "World"})
python 复制代码
>>> result = poml("template.poml", context="context.json")
python 复制代码
>>> messages = poml("chat.poml", format="openai_chat")
python 复制代码
>>> result = poml(
...     markup="template.poml",
...     context={"user": "Alice"},
...     stylesheet={"role": {"captionStyle": "bold"}},
...     format="pydantic"
... )
python 复制代码
>>> poml("template.poml", output_file="output.json", format="raw")

参考链接

总结

Core API 提供了对 POML 标记的处理、结果格式化、追踪与工件写入等能力。根据需求选择合适的 format 与追踪后端,并参考文档中的示例与参数说明进行集成与调用。

相关推荐
日月晨曦14 小时前
LLM幻觉的终极解药:FunctionCall让AI从"胡说八道"变"实事求是"
python·llm
nil1 天前
Dify实战--基于菜谱的RAG系统
llm·产品经理·工作流引擎
掘我的金1 天前
POML 与 MLflow 集成
llm
聚客AI1 天前
🤯RAG系统升级:微调嵌入模型提升上下文检索质量
人工智能·llm·掘金·日新计划
liliangcsdn1 天前
法律审查prompt收集
人工智能·llm·prompt
IAM四十二2 天前
MCP 到底解决了什么问题?
llm·ai编程·mcp
IAM四十二2 天前
LLM多模态嵌入 - 图片嵌入
人工智能·llm·openai
AI大模型2 天前
文科生也能逆袭AI?这5个方向0基础也能成功转行!
程序员·llm·agent
nil2 天前
【开源推荐】双击即译!我用 trae 打造了一款轻量级Chrome网页翻译插件
chrome·llm·ai编程