POML 与 MLflow 集成

POML 与 MLflow 集成

导语

MLflow 是一个开源平台,用于管理机器学习生命周期(包括实验、可复现性与部署)。POML 与 MLflow 的集成可自动将 POML 调用记录为 MLflow traces,并将提示词(prompts)注册到 MLflow 的提示词注册表(prompt registry)。

安装与配置

安装

  • 安装带 MLflow 支持的 POML:
bash 复制代码
pip install poml[agent]
  • 或单独安装 MLflow 及其 GenAI 组件:
bash 复制代码
pip install mlflow mlflow-genai

配置(可选)

  • 使用本地文件存储为默认后端,或自行配置 Tracking Server:
bash 复制代码
# 启动本地 MLflow tracking server
mlflow server --host 0.0.0.0 --port 5000

# 使用远程 tracking server(示例)
export MLFLOW_TRACKING_URI="http://your-mlflow-server:5000"

基本用法

启用 POML 的 MLflow 追踪,并结合 OpenAI 的自动日志记录(autolog):

python 复制代码
import mlflow
import mlflow.openai
import poml
from openai import OpenAI

# Set up MLflow experiment
mlflow.set_experiment("poml_integration")
mlflow.set_tracking_uri("http://localhost:5000")

# Enable POML tracing with MLflow
poml.set_trace("mlflow", trace_dir="pomlruns")

# Enable OpenAI autologging for tracing OpenAI API calls as well
mlflow.openai.autolog()

# Use POML as usual
client = OpenAI()
messages = poml.poml(
    "explain_code.poml",
    context={"code_path": "sample.py"},
    format="openai_chat"
)
response = client.chat.completions.create(
    model="gpt-5",
    **messages
)

追踪内容(What Gets Traced)

启用 MLflow 集成后,POML 会自动记录以下信息:

POML Traces

  • Trace 名称:"poml"
  • Prompt 内容:POML 原始源文本
  • 上下文变量:传入 POML 调用的所有上下文变量
  • 样式表:任意样式配置
  • 结果:发送给 LLM 的处理后 Prompt 结构

提示词注册(Prompt Registration)

POML 的提示词会自动注册到 MLflow 的 Prompt Registry,包含:

  • 提示词名称:由 POML 文件名与顺序号自动推导(例如 0001.explain_code),详见 POML Trace 文档
  • 模板:完整的 POML 源内容
  • 版本:MLflow 自动进行版本跟踪
text 复制代码
0001.explain_code

参考文档:

示例 Trace 数据

json 复制代码
{
  "inputs": {
    "prompt": "<poml> <task>You are a senior Python developer. Please explain the code.</task> <code inline=\"false\"> <document src=\"{{ code_path }}\" parser=\"txt\" /> </code> <runtime temperature=\"0.7\" max-tokens=\"256\"/> </poml>",
    "context": { "code_path": "sample.py" },
    "stylesheet": null
  },
  "outputs": {
    "messages": [
      {
        "speaker": "human",
        "content": "# Task\n\nYou are a senior Python developer. Please explain the code.\n\n```\n\ndef greet(name):\n print(f\"Hello, {name}!\")\n..."
      }
    ]
  }
}

参考链接(See Also)

总结

通过与 MLflow 的集成,POML 调用可被自动追踪为 MLflow traces,并将提示词注册到 Prompt Registry,配合 MLflow 的版本与追踪能力,便于统一管理与审计提示词与调用过程。更多细节与高级用法可参考文档链接。

相关推荐
破烂pan4 小时前
github精选Agent学习repo
llm·github·agent
智泊AI8 小时前
Fine-tuning(微调/精调)是什么?看这篇就够了!
llm
王国强20099 小时前
大型语言模型中参数 temperature 的作用
llm
大模型教程11 小时前
给AI装个“超级大脑”!5分钟带你搞懂RAG,原来这么简单!
程序员·llm·agent
大模型教程12 小时前
RAG基础知识到高级实现:宝藏级开源指南,手把手教你搭建检索增强生成系统
程序员·llm·agent
AI大模型12 小时前
告别新手级RAG!一文掌握专业级后检索优化:重排
程序员·llm·agent
AI大模型12 小时前
17.6 K Star!MaxKB让企业部署AI知识库问答系统如此简单
程序员·llm·agent
安如衫17 小时前
【学习笔记更新中】Deeplearning.AI 大语言模型后训练:微调与强化学习导论
人工智能·llm·sft·后训练·deepseek
大千AI助手1 天前
探索LoSA:动态低秩稀疏自适应——大模型高效微调的新突破
人工智能·神经网络·lora·大模型·llm·大千ai助手·稀疏微调
MrSYJ1 天前
可以指定 Jupyter Notebook 使用的虚拟环境吗
python·llm·agent