使用Langflow和AstraDB构建AI助手:从架构设计到与NocoBase的集成

本文由 Leandro Martins 编写,最初发布于 Building an AI Assistant with Langflow and AstraDB: From Architecture to Integration with NocoBase

引言

本文的目标是演示如何创建一个集成了 NocoBase、LangFlow 和 VectorDB 工具的 AI 助手。作为基础,我将使用自己在 NocoBase 中开发的系统,该系统用于管理架构数据,通过添加一个 AI 助手来生成来自该系统中数据的洞察,例如 应用、API 目录、解决方案设计和故事

在本文中,我们将使用以下技术:

  • NocoBase、PostgreSQL 和 Docker(本文中将展示如何安装它们)。
  • LangFlow,本地运行,可通过 Docker 安装(安装指南在此处)。
  • 向量数据库 ,通过注册 AstraDB 账户实现,本文将使用该数据库作为向量存储。

架构概览

此图展示了新数据(或更新数据)如何被转换为 嵌入(embeddings) 并存储到 向量数据库 中。

  1. 用户 → NocoBase 平台
    用户与 NocoBase 平台交互(例如在集合中添加或更新记录)。
  2. 触发 CRUD 操作
    NocoBase 中的 CRUD(增删改查)操作会触发事件或内部工作流。
  3. 工作流(NocoBase)
    NocoBase 配置了一个响应数据变更的工作流。当检测到记录创建或修改时,工作流启动下一步。
  4. API 流程:加载数据
    NocoBase 工作流调用 LangFlow 的 API 或外部服务,发送待转换为嵌入的数据。
  5. LangFlow --- 数据转嵌入
    LangFlow 接收数据,并利用语言模型将内容转换为向量(嵌入)。这些嵌入以数值形式表示文本的语义或上下文,支持语义搜索。
  6. 向量数据库(AstraDB)
    嵌入随后存储到向量数据库(AstraDB)中,每个嵌入与原始内容(如文档、记录、文本)关联。

此图还展示了用户如何通过向量数据库进行语义查询并获取相关结果。

  1. 用户 → NocoBase 平台
    用户再次与 NocoBase 平台交互,但此次通过嵌入式聊天小部件(或其他搜索界面)。
  2. 嵌入式聊天小部件
    用户输入问题或指令。例如:"展示关于应用 X 的信息。" 小部件向 LangFlow 发送请求以处理查询。
  3. LangFlow --- 数据转嵌入
    LangFlow 将用户指令转换为嵌入,以向量格式表示搜索意图。
  4. 向量数据库(AstraDB)--- 相似性搜索
    使用指令的嵌入在 AstraDB 中搜索最相似的向量(即语义最接近的内容)。
  5. 在模型中精炼搜索结果
    根据 AstraDB 返回的结果,LangFlow 使用 OpenAI 模型(或其他 LLM)精炼搜索结果。
  6. 响应用户
    最终结果(文本、文档或生成的回答)返回至 NocoBase 聊天小部件,向用户展示响应。

使用 NocoBase 的应用

本文将沿用先前创建的应用。该应用旨在展示 NocoBase 的功能,并将在其中实现 AI 助手。下图展示了助手的工作方式。

目标是通过提问获取功能相关的洞察。可用功能包括:应用、API 目录、解决方案设计和故事。

什么是 LangFlow 和 AstraDB?

LangFlow 是一款由巴西开发者创建的开源工具,提供图形化界面以构建、可视化和调试涉及语言模型的工作流。基于 LangChain 生态系统,LangFlow 简化了自然语言处理(NLP)流程和生成式 AI 应用的创建,允许开发者连接不同组件(如 API 调用、文本转换和业务逻辑),而无需大量编码。

AstraDB 最初是基于 Apache Cassandra 的分布式数据库服务,后扩展至支持非结构化数据存储和向量搜索。其向量数据库功能特别适用于机器学习应用、语义搜索、推荐系统和高维数据处理。

安装 LangFlow

通过 Docker 安装 LangFlow 只需运行以下命令,然后在 localhost:7860 访问系统:

docker run -it --rm -p 7860:7860 langflowai/langflow:latest

配置 AstraDB

在 AstraDB 注册账户后,可按以下步骤配置数据库和集合:

  1. 选择 服务提供商
  2. 选择 区域
  3. 创建 数据库

由于集合存储向量化数据,需配置 Embedding 功能,即负责向量化的 LLM 模型。可选的嵌入模型包括 OpenAI、Nvidia 和 Google 的模型。本文使用 text-embedding-ada-002 进行数据转换。

向向量数据库加载数据

此步骤将待搜索数据输入向量数据库:

  1. LangFlow 工作流通过 URL 接收数据。
  2. 处理文本。
  3. 使用 text-embedding-ada-002 转换为向量。
  4. 存储至 AstraDB 的配置集合中。

关键点

  • 需在数据库连接组件中定义 AstraDB Token 。生成 Token 需在 AstraDB 集合页面点击 Generate Token
  • 源文件可在此 仓库 找到。
  • 使用 OpenAI 模型需为其 API 添加额度,并生成 Token 以配置嵌入生成组件。具体流程参考 此文档

通过 Postman 调用 LangFlow 的 API(通过 API > cURL 获取 URL)即可测试。下图展示 Postman 请求示例:

通过模型执行搜索

此步骤负责从向量数据库检索数据,并通过 RAG(检索增强生成) 精炼结果。

此阶段同样需在组件中定义 OpenAI 和 AstraDB 的 Token。源文件可在此 仓库 找到。

测试时可通过 LangFlow 的 Playground 标签页使用内置聊天功能。

在 NocoBase 中配置工作流

此步骤将在应用中创建触发器,以发送需向量化的数据。即每当插入新数据时,数据将被发送至 LangFlow API 处理。

使用 NocoBase 的 工作流 功能实现此目标。工作流详情参考 此文档

我们将创建一个工作流,将应用集合的数据发送至向量化集合。

步骤:

  1. 创建新工作流,选择 集合事件
  2. 触发器 定义为 应用 集合的插入操作。
  3. 创建 请求节点 以发送应用的向量化数据。本文以 标题描述 为例,实际可根据业务规则发送任意信息。
  4. 通知步骤 为可选,无需执行。

在 NocoBase 中添加聊天小部件

首先,从 LangFlow 的 API 选项中复制聊天小部件代码,如下图所示:

第二步,创建页面并添加 iframe 组件。组件详情参考 此文档

配置:

  • 模式: HTML
  • HTML: 以下代码,替换 flow_idhost_url 为 LangFlow 的值。

测试聊天功能

返回创建的菜单,测试助手并查看响应,示例如下:

结论

本文演示了如何创建集成 NocoBase、LangFlow 和 AstraDB 的 AI 助手,实现了数据向量化和智能检索。通过此架构,我们能够生成基于注册数据的洞察,并利用 RAG 技术优化搜索结果。

这仅是架构潜力的开端。通过小幅调整,可扩展功能、集成新 AI 模型并提升用户体验。🚀

相关阅读:

相关推荐
码上飞扬5 分钟前
深入解析AI PPT实现原理及用到的人工智能技术
人工智能·powerpoint·ai ppt
Liudef068 分钟前
从零开始用AI开发游戏(一)
人工智能·游戏
腾源会18 分钟前
OCAI + DeepSeek满血版双buff加成,OS运维从此告别焦虑
开源·操作系统·deepseek
天行者@18 分钟前
卷积神经网络(笔记01)
人工智能·深度学习·cnn
X204627 分钟前
RAG 天都变了!OpenAI 亲自下场,深夜发布 5 个新功能!新的原型请求接口,开发者必看!
人工智能
田猿笔记29 分钟前
FerretDB 2.0:开源 MongoDB 替代品的安装与使用指南
数据库·开源·ferretdb
蚝油菜花33 分钟前
TrajectoryCrafter:腾讯黑科技!单目视频运镜自由重构,4D生成效果媲美实拍
人工智能·开源
大0马浓33 分钟前
训练大模型LLM选择哪种开发语言最好
人工智能·python·训练
PNP机器人34 分钟前
Franka机器人ROS 2 发布:赋能机器人研究和行业应用
人工智能·深度学习·机器人·ros·franka fr3
港股研究社34 分钟前
重估首程控股:一只产业生态完整的“机器人ETF”
大数据·人工智能·机器人