基于 vLLM、Tavily 和 Arize Phoenix 构建本地 LLM 可观测性技术栈“只要深入探究,万事万物皆有趣味。”——理查德·费曼现代大语言模型系统之所以令人印象深刻,往往是因为它们的大量行为都隐藏在抽象层之后。输入一个提示词,输出一段回答——而在这中间,某个“智能”系统做出的决策既难以检视、更难调试,在规模化应用时几乎无法让人完全信任。本文将刻意反其道而行之:我们不把智能体、工具和模型当作黑箱魔法,而是层层拆解,追踪幕后真正发生的一切:LangChain/LangGraph 智能体如何推理、何时调用工具、基于 vLLM 部署的模型如何响应,以及 Arize Phoenix 如何将