人工智能基础知识笔记三十一:Langfuse

1、简介

Langfuse 是一个专为大语言模型(LLM)应用开发设计的开源可观测性平台。它就像是 LLM 应用的"黑匣子"或"监控仪表盘",帮助开发者追踪、分析和优化基于 AI 的应用。

它的核心功能如下:

1. 追踪与监控

  • 自动记录:自动追踪每次 LLM 调用、函数执行和用户交互

  • 可视化工作流:以树形结构展示复杂的 AI 应用执行过程

  • 性能指标:监控延迟、成本和 token 使用情况

2. 提示工程管理

  • 版本控制:像 Git 一样管理不同的 prompt 版本

  • A/B 测试:比较不同 prompt 版本的效果

  • 协作:团队共享和优化提示词

3. 评估与分析

  • 自动评估:使用 AI 评估 AI 回答的质量

  • 人工反馈:收集用户评分和反馈

  • 数据分析:识别模式、异常和优化机会

4. 数据集管理

  • 创建和管理测试数据集

  • 批量运行和评估

  • 持续改进模型性能

2、如何安装

langfuse的安装非常简单,只需要执行以下几条命令就可以了:

bash 复制代码
# Get a copy of the latest Langfuse repository
git clone https://github.com/langfuse/langfuse.git
cd langfuse

# Run the langfuse docker compose
docker compose up

更多信息可以参考:https://github.com/langfuse/langfuse?tab=readme-ov-file

安装完之后,默认的端口是3000, 可以通过http://localhost:3000/api/public/health确认服务是否正常启动了。

3、构建环境遇到的一个问题

开始环境使用的python的版本是3.14.0, 在确认安装了 langfuse之后,凡是import langfuse的任何package,例如:

python 复制代码
from langfuse.openai import OpenAI

都会报错如下:

"ConfigError: unable to infer type for attribute "description'"

经过查询得知主要是由于pydantic的兼容问题导致的,按照各种方法尝试修复,例如:指定pydantic的版本为2.9.2, 都无果。

最终的解决方案

安装一个Python1.22.7版本,然后安装所有的依赖,使用这个版本的python就可以了。

4、如何运行一个Ollama的应用实例

本例子是尝试使用Ollama的qwen3:8b模型来运行一个query,查看是否可以在Langfuse上进行Track这个query的具体信息。

第一步,langfuse的配置信息,具体可以参考如下页面显示,生成LANGFUSE_PUBLIC_KEY 和 LANGFUSE_SECRET_KEY。

然后在程序的.env文件,添加langfuse的配置信息,可以从页面上直接复制:

或者直接在代码里赋值:

python 复制代码
os.environ["LANGFUSE_PUBLIC_KEY"] = ""
os.environ["LANGFUSE_SECRET_KEY"] = ""
os.environ["LANGFUSE_BASE_URL"] = "https://cloud.langfuse.com"

第二步,安装依赖:

python 复制代码
%pip install langfuse openai
%pip install pydantic
%pip install dotenv

第三步,加载配置项

python 复制代码
import os
from dotenv import load_dotenv
load_dotenv()



LANGFUSE_PUBLIC_KEY = os.getenv("LANGFUSE_PUBLIC_KEY")
LANGFUSE_SECRET_KEY = os.getenv("LANGFUSE_SECRET_KEY")
LANGFUSE_HOST = os.getenv("LANGFUSE_HOST", "http://localhost:3000")

# 打印验证是否能够正确读出来配置的内容
print(LANGFUSE_PUBLIC_KEY)
print(LANGFUSE_SECRET_KEY)
print(LANGFUSE_HOST)

第四步 ,编写代码使用Ollama执行Query,这里使用langfuse的示例代码,【https://langfuse.com/integrations/model-providers/ollama

python 复制代码
# Drop-in replacement to get full logging by changing only the import
from langfuse.openai import OpenAI
 
# Configure the OpenAI client to use http://localhost:11434/v1 as base url 
client = OpenAI(
    base_url = 'http://localhost:11434/v1',
    api_key='ollama', # required, but unused
)
 
response = client.chat.completions.create(
  model="qwen3:8b",
  messages=[
    {"role": "system", "content": "You are a helpful assistant."},
    {"role": "user", "content": "Who was the first person to step on the moon?"},
    {"role": "assistant", "content": "Neil Armstrong was the first person to step on the moon on July 20, 1969, during the Apollo 11 mission."},
    {"role": "user", "content": "What were his first words when he stepped on the moon?"}
  ]
)
print(response.choices[0].message.content)

第五步,登录langfuse的界面查看Query的详细信息:

5、参考

https://github.com/langfuse/langfuse?tab=readme-ov-file

https://langfuse.com/integrations/model-providers/ollama

相关推荐
yang011110016 小时前
论文总结 HVI: A New Color Space for Low-light Image Enhancement
图像处理·人工智能·学习·计算机视觉
我和我导针锋相队6 小时前
在撰写项目书时,如何在有限的篇幅里平衡呈现“问题链”“合作证据链”和“创新落地计划”,避免内容冗余又能清晰传递核心信息?
大数据·运维·人工智能
wechat_Neal6 小时前
智能汽车-大模型应用文献
人工智能·车载系统
Piar1231sdafa7 小时前
野猪目标检测与识别_基于YOLO11-Attention模型的改进实现
人工智能·目标检测·计算机视觉
光羽隹衡7 小时前
计算机视觉——Opencv(基础操作二)
人工智能·opencv·计算机视觉
shanghaichutai7 小时前
Valosin (porcine) (Peptide VQY (porcine)) ;VQYPVEHPDKFLKFGMTPSKGVLFFY
笔记
一路向阳~负责的男人7 小时前
PyTorch / CUDA 是什么?它们的关系?
人工智能·pytorch·python
2501_941333107 小时前
乒乓球比赛场景目标检测与行为分析研究
人工智能·目标检测·计算机视觉
岑梓铭7 小时前
YOLO深度学习(计算机视觉)一很有用!!(进一步加快训练速度的操作)
人工智能·深度学习·神经网络·yolo·计算机视觉
三伏5227 小时前
Cortex-M3权威指南Cn第三章——笔记
笔记·cortex-m3