使用langsmith调试fay的prompt

使用langsmith调试fay的prompt

  • 课程ID:langsmith-course
  • 作者:郭泽斌
  • 版本:1.0.0
  • 章节数:6

目录

  1. 配置langsmith
  2. 创建key
  3. 添加环境变量
  4. 安装langsmith库
  5. tracking prompt
  6. fay的llm请求

第1节 配置langsmith

讲稿

访问网站https://smith.langchain.com/ 并注册登录

代码/文案

复制代码
访问网站https://smith.langchain.com/ 并注册登录

第2节 创建key

讲稿

登录后点击左下角的Setting,再进入API Keys栏目,再创建一个Key.

第3节 添加环境变量

讲稿

在系统上添加如图4个环境变量,这里key就是上一步保存下来的,project自由填写,待会自动创建的。

第4节 安装langsmith库

讲稿

请在启动fay的python环境里执行如下命令安装langsmith库

代码/文案

复制代码
pip install langsmith

第5节 tracking prompt

讲稿

此时重启命令终端,再重新启动fay,就可以在平台的Tracking栏目监测到向llm发送的每条消息,也可以看到llm返回的消息。

第6节 fay的llm请求

讲稿

耐心观察,可以看到fay向llm的请求有5情况,分别是: 1.langGraph,这类型是存在可用的mcp工具时,会由llm决定是否调用工具; 2.没有可用mcp工具时的聊天,表现为ChatOpenAI; 3.通过fay向下游提供直链的llm服务,表现为ChatOpenAI,与第2点的区别是没有组合人设、记忆等上下文; 4.用户画象分析,表现为ChatOpenAI,每天执行一次; 5.行为反思,表现为ChatOpenAI,每表执行一次。

代码/文案

复制代码
耐心观察,可以看到fay向llm的请求有5情况,分别是:
1.langGraph,这类型是存在可用的mcp工具时,会由llm决定是否调用工具;
2.没有可用mcp工具时的聊天,表现为ChatOpenAI;
3.通过fay向下游提供直链的llm服务,表现为ChatOpenAI,与第2点的区别是没有组合人设、记忆等上下文;
4.用户画象分析,表现为ChatOpenAI,每天执行一次;
5.行为反思,表现为ChatOpenAI,每天执行一次。
相关推荐
顾鉴行思1 分钟前
10 字符串常量到底存在哪里?
c语言·汇编·经验分享
庞轩px2 分钟前
Prompt Engineering——从随意提问到工程化调用
prompt·engineering·角色设定·输出格式约束·prompt模版·复杂prompt
05候补工程师20 分钟前
【编译原理】自顶向下语法分析深度解析:从 LL(1) 文法判定、改写到预测分析表
经验分享·笔记·考研·自然语言处理
优化控制仿真模型40 分钟前
2026年初中英语考纲词汇表(1600词)PDF电子版
经验分享·pdf
草履虫君2 小时前
windows系统装机,小白win10装机教程wepe模式,包括系统盘怎么制作,bios怎么设置
windows·经验分享
智者知已应修善业4 小时前
【51单片机从奇数始再转偶数逐一点亮并循环】2023-9-8
c++·经验分享·笔记·算法·51单片机
庞轩px4 小时前
大模型为什么会有“幻觉”——从训练方式到推理局限
人工智能·prompt·rag·大模型幻觉·engineering·训练方式
有过~5 小时前
LocalSend本地文件传输神器
经验分享·电脑·办公软件
Aision_5 小时前
为什么 CTI 场景需要知识图谱?
人工智能·python·安全·web安全·langchain·prompt·知识图谱
LaughingZhu18 小时前
Product Hunt 每日热榜 | 2026-04-27
人工智能·经验分享·深度学习·产品运营