LangSmith监控

文章目录

LangSmith 介绍

什么是LangSmith

LangSmith 是由 LangChain 团队开发的一款 用于调试、测试、评估和监控 LLM 应用的开发者工具平台,适用于构建基于大型语言模型(LLMs)的复杂应用。它特别适合在使用 LangChain、OpenAI Function calling、Agent、RAG(检索增强生成)等场景中进行调试与监控。它是一个 SaaS 服务平台,由 LangChain 官方运营,服务托管在云端。使用 LangSmith 需要注册账号,并通过云端 API Key 接入。

监控功能介绍

  • Trace(调用追踪):记录和可视化每一次 LLM 调用链条(Trace Tree)。记录模型调用的输入、输出、使用的模型名称、参数(如
    temperature、top_p 等)、token 使用情况。
  • Telemetry(性能指标监控):统计调用性能指标,便于优化性能和成本。例如:平均响应时间、总调用次数、成功/失败次数、Token
    使用量(input/output 分别统计)
  • Dataset / Run Comparison(运行比对与评估):用于自动化评估 LLM 系统的准确性和一致性,用于监控模型版本变更或prompt 改动后的影响
  • Tagging & Metadata(标签与元数据):支持给每次调用打标签,比如:哪个用户触发的(user_id)、哪个环境(prod/dev)、哪个版本(v1.2.0),可用于后续查询和聚合分析,便于精细监控和定位问题
  • 错误监控(Error Tracing):自动记录错误类型、异常堆栈,支持错误分组分析(如调用某个 retriever的失败率较高),可集成告警系统(Slack, Webhook 等)

使用场景总结

场景 LangSmith 帮助点
Chain 调试 可视化各步骤输入输出、耗时、调用顺序
RAG 应用监控 监控 Retriever/LLM 效果、错误情况、响应质量
Prompt 优化与 A/B Test 比较不同 prompt 的性能与效果
模型版本对比 运行历史版本对比评估
用户行为分析 利用 tagging 分析调用频率、失败率、使用行为

LangSmith使用

创建项目获取 API Key

登录https://smith.langchain.com/,并创建账号。

系统中默认存在一个项目,我们新建一个项目。

LangSmith支持LangChain项目和非LangChain项目,并且分别提供了将LangSmith接入到应用的方法,点击Generate API Key,生成API Key。

复制环境变量配置

复制上方的配置,放到项目的.env 文件中

python 复制代码
LANGSMITH_TRACING="true"
LANGSMITH_ENDPOINT="https://api.smith.langchain.com"
LANGSMITH_API_KEY="XXXXXXXXXXXXXXXXXXX"
LANGSMITH_PROJECT="langchain-demo"

使用验证

通过一个最简单的示例进行测试:

python 复制代码
import dotenv
from langchain_core.prompts import ChatPromptTemplate
from langchain_ollama.llms import ChatOllama
# 读取env配置
dotenv.load_dotenv()
# 构建 prompt 模板
template = """
    使用中文回答下面的问题:
    问题: {question}
    """
prompt = ChatPromptTemplate.from_template(template)

# 设置本地模型,不使用深度思考
model = ChatOllama(base_url="http://localhost:11434", model="qwen3:8b", reasoning=False)

# 创建 Chain
chain = prompt | model

# 打印结果
print(chain.invoke({"question": "什么是LangChain?"}))

执行完成之后,在Tracing Projects页面就可以看到langchain-demo项目被成功创建

点击进入项目,就可以看到刚刚那一次的调用过程,包括输入、输出、发起时间、总耗时等信息

点击All Runs可以查看各个组件的执行过程,包括Prompt生成、LLM响应、输出解析器处理等各环节的详细执行信息

Callback 使用

什么是Callback机制

除了使用LangSmith之外,LangChain还提供了一种回调机制,可以在 LLM 应用程序的各种阶段执行特定的钩子方法。通过这些钩子方法,我们可以轻松地进行日志输出、异常监控等任务,Callback支持以下事件的钩子方法:

Event 事件 触发时机 关联钩子方法
Chat model start 聊天模型启动 on_chat_model_start
LLM start LLM LLM模型启动 on_llm_start
LLM new token LLM LLM生成新的 token 时触发,仅在启用流式输出(streaming)模式下生效 on_llm_new_token
LLM ends LLM 或聊天模型完成运行时 on_llm_end
LLM errors LLM 或聊天模型出错 on_llm_error
Chain start 链开始执行(实际上就是每个可运行组件开始执行) on_chain_start
Chain end 链结束执行(实际上就是每个可运行组件结束执行) on_chain_end
Chain error 链执行出错 on_chain_error
Tool start 工具开始执行 on_tool_start
Tool end 工具结束执行 on_tool_end
Tool error 工具执行出错 on_tool_error
Agent action agent开始执行 on_agent_action
Agent finish agent结束执行 on_agent_finish
Retriever start 检索器开始执行 on_retriever_start
Retriever end 检索器结束执行 on_retriever_end
Retriever error 检索器执行出错 on_retriever_error
Text 每次模型输出一段文本时,就会调用这个方法 on_text
Retry 当某个组件(比如 LLM 调用或链)发生失败并触发重试机制时 on_retry

CallBack 使用场景

在实际开发中,LangSmith 更适合在开发调试阶段使用,而在生产环境下,出于数据隐私和安全考量,我们通常不会将敏感数据上传到LangSmith平台。这时,Callback 机制就能将执行信息接入到本地或自定义的监控系统,实现同样的可观测性。

使用Callback机制

使用Callback机制,需要使用到Callback handler,即回调处理器,那些各个生命周期的钩子方法,就定义在回调处理器中,回调处理器支持同步和异步,同步回调处理器继承BaseCallbackHandler类,异步回调处理器继承AsyncCallbackHandler类。

BaseCallbackHandler类可以重写的钩子方法 如下:

那么,如何使自定义的CallbackHandler生效呢?可以在调用可执行组件的invoke()方法中,除了传递输入参数外,再传递config配置参数,config配置参数可以传递各种配置信息,其中,callbacks属性用来传递回调处理器,callbacks属性接收一个数组,数组里面包含自定义的CallbackHandler对象,代码示例如下:

python 复制代码
from uuid import UUID
import dotenv
from typing import Dict, Any, Optional, List
from langchain_core.callbacks import BaseCallbackHandler
from langchain_core.messages import BaseMessage
from langchain_core.outputs import LLMResult
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.runnables import RunnableConfig
from langchain_ollama.llms import ChatOllama


class CustomCallbackHandler(BaseCallbackHandler):
    """自定义回调处理类"""

    def on_chat_model_start(self, serialized: Dict[str, Any], messages: List[List[BaseMessage]], *, run_id: UUID,
                            parent_run_id: Optional[UUID] = None, tags: Optional[List[str]] = None,
                            metadata: Optional[Dict[str, Any]] = None, **kwargs: Any) -> Any:
        print("======聊天模型结束执行======")

    def on_llm_end(self, response: LLMResult, *, run_id: UUID, parent_run_id: Optional[UUID] = None,
                   **kwargs: Any) -> Any:
        print("======聊天模型结束执行======")

    def on_chain_start(self, serialized: Dict[str, Any], inputs: Dict[str, Any], *, run_id: UUID,
                       parent_run_id: Optional[UUID] = None, tags: Optional[List[str]] = None,
                       metadata: Optional[Dict[str, Any]] = None, **kwargs: Any) -> Any:
        print(f"开始执行当前组件{kwargs['name']},run_id: {run_id}, 入参:{inputs}")

    def on_chain_end(self, outputs: Dict[str, Any], *, run_id: UUID, parent_run_id: Optional[UUID] = None,
                     **kwargs: Any) -> Any:
        print(f"结束执行当前组件,run_id: {run_id}, 执行结果:{outputs}, {kwargs}")


# 读取env配置
dotenv.load_dotenv()
# 构建 prompt 模板
template = """
    使用中文回答下面的问题:
    问题: {question}
    """
prompt = ChatPromptTemplate.from_template(template)

# 设置本地模型,不使用深度思考
model = ChatOllama(base_url="http://localhost:11434", model="qwen3:0.6b", reasoning=False)

# 创建 Chain
chain = prompt | model
# 设置回调处理类
config = RunnableConfig(callbacks=[CustomCallbackHandler()])
# 打印结果
chain.invoke({"question": "什么是LangChain?"}, config)

在示例中,创建了一个CustomCallbackHandler类,继承了BaseCallbackHandler,分别重写了on_chain_start、on_llm_end、on_chain_start、on_chain_end,在聊天模型开始执行和结束执行进行了信息输出,在on_chain_start、on_chain_end打印了当前链执行的组件名称、运行id、输入参数、输出结果。

执行结果如下,通过输出结果可以清晰地看到每一个组件的输入和输出结果,以及LLM何时开始执行、结束执行,若需监控异常情况,可重写 on_chain_error 方法。

python 复制代码
开始执行当前组件RunnableSequence,run_id: e3ff2574-b6a4-4ad5-a06a-fa8495ddc0ad, 入参:{'question': '什么是LangChain?'}
开始执行当前组件ChatPromptTemplate,run_id: 3dabdc63-c815-4d93-9830-634b0784383d, 入参:{'question': '什么是LangChain?'}
结束执行当前组件,run_id: 3dabdc63-c815-4d93-9830-634b0784383d, 执行结果:messages=[HumanMessage(content='\n    使用中文回答下面的问题:\n    问题: 什么是LangChain?\n    ', additional_kwargs={}, response_metadata={})], {'tags': ['seq:step:1']}
======聊天模型结束执行======
结束执行当前组件,run_id: e3ff2574-b6a4-4ad5-a06a-fa8495ddc0ad, 执行结果:LangChain 是由 LangChain 公司开发的一个开源平台,用于构建和管理大型语言模型的应用程序。它提供了一个易于使用和可扩展的框架,帮助开发者实现各种自动化任务,包括但不限于数据处理、知识管理、任务执行等。LangChain 结合了多种语言模型和人工智能技术,使用户能够快速创建和管理复杂的应用程序,从而提高开发效率和用户体验。, {'tags': []}
相关推荐
智航GIS4 小时前
9.6 JSON 基本操作
python·json
Jul7_LYY4 小时前
03雷达的有源干扰分类
网络·人工智能·分类
民乐团扒谱机5 小时前
【微科普】BERT 主题建模 + 多模态分析,解锁阆中古镇评论数据价值
人工智能·深度学习·bert
Keep_Trying_Go5 小时前
accelerate 深度学习分布式训练库的使用详细介绍(单卡/多卡分布式训练)
人工智能·pytorch·分布式·深度学习
@zulnger5 小时前
python 学习笔记(文件读写)
笔记·python·学习
昨夜见军贴06165 小时前
IACheck × AI审核:重构来料证书报告审核体系,夯实生产质量管控第一道防线
人工智能·重构
一点一木5 小时前
2025 年终技术复盘:从传统编程到 Vibe Coding 的工作流跃迁
前端·人工智能·程序员
liliangcsdn5 小时前
VAE中Encoder和Decoder的理论基础的探索
人工智能·算法·机器学习
王莽v25 小时前
FlexRound:基于逐元素除法的可学习舍入后训练量化方法
人工智能
weixin_462446235 小时前
Python 使用 Tkinter + openpyxl 处理 Excel 文件并显示实时进度条
python·excel·tkinter