1. 文档核心:LangChain Frontend 是什么?
- 是 LangChain 自带的轻量级 Web 界面
- 作用:不用自己写前端页面,直接给 LLM / Agent / Chain 提供一个可交互的网页
- 定位:快速演示、调试、内部使用,不是生产级前端框架
- 底层:用 FastAPI + 简单前端 启动一个本地 Web 服务
2. 文档说的核心能力
- 提供聊天界面(Chat UI)
- 支持流式输出(streaming)
- 可直接挂载:
- LLM
- Chain
- Agent
- Runnable(LangChain 标准接口)
- 本地启动,浏览器直接访问
- 极简配置,几行代码就能跑起来
3. 安装(文档要求)
pip install langchain-frontend
4. 文档给出的最简使用结构
文档里的通用模式:
- 定义你的 LLM / Chain / Agent
- 传入
langchain_frontend - 启动服务
5. 最简可运行代码(严格按文档)
# 导入依赖
from langchain_openai import ChatOpenAI
from langchain_frontend import LangChainFrontend
# 1. 定义你的模型
llm = ChatOpenAI(model="gpt-3.5-turbo")
# 2. 创建前端,挂载你的 LLM/Chain/Agent
app = LangChainFrontend(
runnable=llm, # 核心:挂载你的可运行对象
title="My Chatbot", # 页面标题
input_label="输入" # 输入框提示
)
# 3. 启动服务
if __name__ == "__main__":
import uvicorn
uvicorn.run(app, host="0.0.0.0", port=7860)
运行后访问:
http://localhost:7860
6. 文档强调:支持的对象
只要是 LangChain 的 Runnable 都能挂:
LLMChain(如 LLMChain、RAG 链)AgentRunnableLambdaRunnablePassthrough等组合对象
7. 文档里的关键配置项
runnable:要挂载的模型 / 链 / Agent(必填)title:前端页面标题input_label:输入框提示文字streaming:是否开启流式输出(默认开启)host/port:服务地址和端口
8. 文档总结的适用场景
- 快速演示你的 AI 应用
- 内部调试 Chain / Agent
- 不想写 React/Vue 前端,快速出界面
- 小型工具、内部系统、Demo
9. 文档不建议的场景
- 不适合复杂前端交互
- 不适合高并发生产环境
- 不适合自定义样式 / 登录 / 权限等复杂需求
极简一句话总结
LangChain Frontend = 快速给你的 LLM/Agent/Chain 套一个聊天网页,零前端代码,本地直接跑。