POML 与 MLflow 集成

POML 与 MLflow 集成

导语

MLflow 是一个开源平台,用于管理机器学习生命周期(包括实验、可复现性与部署)。POML 与 MLflow 的集成可自动将 POML 调用记录为 MLflow traces,并将提示词(prompts)注册到 MLflow 的提示词注册表(prompt registry)。

安装与配置

安装

  • 安装带 MLflow 支持的 POML:
bash 复制代码
pip install poml[agent]
  • 或单独安装 MLflow 及其 GenAI 组件:
bash 复制代码
pip install mlflow mlflow-genai

配置(可选)

  • 使用本地文件存储为默认后端,或自行配置 Tracking Server:
bash 复制代码
# 启动本地 MLflow tracking server
mlflow server --host 0.0.0.0 --port 5000

# 使用远程 tracking server(示例)
export MLFLOW_TRACKING_URI="http://your-mlflow-server:5000"

基本用法

启用 POML 的 MLflow 追踪,并结合 OpenAI 的自动日志记录(autolog):

python 复制代码
import mlflow
import mlflow.openai
import poml
from openai import OpenAI

# Set up MLflow experiment
mlflow.set_experiment("poml_integration")
mlflow.set_tracking_uri("http://localhost:5000")

# Enable POML tracing with MLflow
poml.set_trace("mlflow", trace_dir="pomlruns")

# Enable OpenAI autologging for tracing OpenAI API calls as well
mlflow.openai.autolog()

# Use POML as usual
client = OpenAI()
messages = poml.poml(
    "explain_code.poml",
    context={"code_path": "sample.py"},
    format="openai_chat"
)
response = client.chat.completions.create(
    model="gpt-5",
    **messages
)

追踪内容(What Gets Traced)

启用 MLflow 集成后,POML 会自动记录以下信息:

POML Traces

  • Trace 名称:"poml"
  • Prompt 内容:POML 原始源文本
  • 上下文变量:传入 POML 调用的所有上下文变量
  • 样式表:任意样式配置
  • 结果:发送给 LLM 的处理后 Prompt 结构

提示词注册(Prompt Registration)

POML 的提示词会自动注册到 MLflow 的 Prompt Registry,包含:

  • 提示词名称:由 POML 文件名与顺序号自动推导(例如 0001.explain_code),详见 POML Trace 文档
  • 模板:完整的 POML 源内容
  • 版本:MLflow 自动进行版本跟踪
text 复制代码
0001.explain_code

参考文档:

示例 Trace 数据

json 复制代码
{
  "inputs": {
    "prompt": "<poml> <task>You are a senior Python developer. Please explain the code.</task> <code inline=\"false\"> <document src=\"{{ code_path }}\" parser=\"txt\" /> </code> <runtime temperature=\"0.7\" max-tokens=\"256\"/> </poml>",
    "context": { "code_path": "sample.py" },
    "stylesheet": null
  },
  "outputs": {
    "messages": [
      {
        "speaker": "human",
        "content": "# Task\n\nYou are a senior Python developer. Please explain the code.\n\n```\n\ndef greet(name):\n print(f\"Hello, {name}!\")\n..."
      }
    ]
  }
}

参考链接(See Also)

总结

通过与 MLflow 的集成,POML 调用可被自动追踪为 MLflow traces,并将提示词注册到 Prompt Registry,配合 MLflow 的版本与追踪能力,便于统一管理与审计提示词与调用过程。更多细节与高级用法可参考文档链接。

相关推荐
小Pawn爷2 小时前
10.不改模型只改提示P-Tuning微调新思路
llm·p-tuning
aopstudio5 小时前
Jinja 是什么?为什么大模型的聊天模板使用它?
自然语言处理·llm·jinja
缘友一世8 小时前
基于GSPO算法实现Qwen3-VL 8B在MathVista数据集上的强化学习实践入门
llm·rl·gspo·rlvr
AGI杂货铺8 小时前
零基础也能快速搭建的Deep Agents
ai·langchain·llm·agent·deepagent
彼岸花开了吗8 小时前
构建AI智能体:八十二、潜藏秩序的发现:隐因子视角下的SVD推荐知识提取与机理阐释
人工智能·llm
Study99610 小时前
大语言模型的详解与训练
人工智能·ai·语言模型·自然语言处理·大模型·llm·agent
淡淡的说非12 小时前
LangChain4j 深度解析与Java工程化落地实践
ai·llm·springboot·langchain4j
夏日白云12 小时前
《PDF解析工程实录》第 14 章|内容流文本布局计算:pdfminer 在做什么,以及它为什么不够
pdf·llm·大语言模型·rag·文档解析
lkbhua莱克瓦2413 小时前
参数如何影响着大语言模型
人工智能·llm·大语言模型
智泊AI1 天前
一文讲清:RAG中语义理解和语义检索的区别到底是什么?有何应用?
llm