使用langsmith调试fay的prompt

使用langsmith调试fay的prompt

  • 课程ID:langsmith-course
  • 作者:郭泽斌
  • 版本:1.0.0
  • 章节数:6

目录

  1. 配置langsmith
  2. 创建key
  3. 添加环境变量
  4. 安装langsmith库
  5. tracking prompt
  6. fay的llm请求

第1节 配置langsmith

讲稿

访问网站https://smith.langchain.com/ 并注册登录

代码/文案

复制代码
访问网站https://smith.langchain.com/ 并注册登录

第2节 创建key

讲稿

登录后点击左下角的Setting,再进入API Keys栏目,再创建一个Key.

第3节 添加环境变量

讲稿

在系统上添加如图4个环境变量,这里key就是上一步保存下来的,project自由填写,待会自动创建的。

第4节 安装langsmith库

讲稿

请在启动fay的python环境里执行如下命令安装langsmith库

代码/文案

复制代码
pip install langsmith

第5节 tracking prompt

讲稿

此时重启命令终端,再重新启动fay,就可以在平台的Tracking栏目监测到向llm发送的每条消息,也可以看到llm返回的消息。

第6节 fay的llm请求

讲稿

耐心观察,可以看到fay向llm的请求有5情况,分别是: 1.langGraph,这类型是存在可用的mcp工具时,会由llm决定是否调用工具; 2.没有可用mcp工具时的聊天,表现为ChatOpenAI; 3.通过fay向下游提供直链的llm服务,表现为ChatOpenAI,与第2点的区别是没有组合人设、记忆等上下文; 4.用户画象分析,表现为ChatOpenAI,每天执行一次; 5.行为反思,表现为ChatOpenAI,每表执行一次。

代码/文案

复制代码
耐心观察,可以看到fay向llm的请求有5情况,分别是:
1.langGraph,这类型是存在可用的mcp工具时,会由llm决定是否调用工具;
2.没有可用mcp工具时的聊天,表现为ChatOpenAI;
3.通过fay向下游提供直链的llm服务,表现为ChatOpenAI,与第2点的区别是没有组合人设、记忆等上下文;
4.用户画象分析,表现为ChatOpenAI,每天执行一次;
5.行为反思,表现为ChatOpenAI,每天执行一次。
相关推荐
其实秋天的枫1 小时前
考研数学一、二、三历年真题及答案解析PDF电子版(1987-2026年)
经验分享·pdf
Aurora-silas1 小时前
从 Prompt Engineering 到 Harness Engineering:AI 工程能力的演进之路
人工智能·经验分享
xuhaoyu_cpp_java11 小时前
过滤器与监听器学习
java·经验分享·笔记·学习
LegendNoTitle12 小时前
计算机三级等级考试 网络技术 选择题考点详细梳理
服务器·前端·经验分享·笔记·php
LaughingZhu12 小时前
Product Hunt 每日热榜 | 2026-03-23
数据库·人工智能·经验分享·神经网络·chatgpt
Metaphor69216 小时前
使用 Python 查找并高亮 Word 文档中的文本
经验分享
TyOvO616 小时前
解决Redhat8.9下,calibre(DRC,LVS)字体异常问题
经验分享
w_t_y_y19 小时前
ai coding工具共性(六)prompt
prompt
中屹指纹浏览器20 小时前
2026移动端环境模拟:指纹浏览器在跨端账号管理中的技术演进
经验分享·笔记