TDengine 做 Apache SuperSet 数据源

‌Apache Superset‌ 是一个现代的企业级商业智能(BI)Web 应用程序,主要用于数据探索和可视化。它由 Apache 软件基金会支持,是一个开源项目,它拥有活跃的社区和丰富的生态系统。Apache Superset 提供了直观的用户界面,使得创建、分享和可视化数据变得简单,同时支持多种数据源和丰富的可视化选项‌。

通过 TDengine 的 Python 连接器, ‌Apache ‌Superset‌ 可支持 TDengine 数据源并提供数据展现、分析等功能

前置条件

准备以下环境:

  • TDengine 集群已部署并正常运行(企业及社区版均可)
  • taosAdapter 能够正常运行。详细参考 taosAdapter 使用手册
  • Apache Superset v2.1.0 或以上版本已安装。安装 Apache Superset 请参考 官方文档

安装 TDengine Python 连接器

TDengine Python 连接器从 v2.1.18 起带 Superset 连接驱动,会安装至 Superset 相应目录下并向 Superset 提供数据源服务

Superset 与 TDengine 之间使用 WebSocket 协议连接,需安装支持此协议的 taos-ws-py 组件, 全部安装脚本如下:

bash 复制代码
pip3 install taospy
pip3 install taos-ws-py

配置 TDengine 数据源

第 1 步 ,进入新建数据库连接页面 "Superset" → "Setting" → "Database Connections" → "+DATABASE"
第 2 步 ,选择 TDengine 数据库连接。"SUPPORTED DATABASES" 下拉列表中选择 "TDengine" 项。

:::tip

注意:若下拉列表中无 "TDengine" 项,请检查安装顺序,确保 TDengine Python 连接器Superset 安装之后再安装。

:::
第 3 步 ,"DISPLAY NAME" 中填写连接名称,任意填写即可。
第 4 步,"SQLALCHEMY URL" 项为关键连接信息串,务必填写正确。

bash 复制代码
taosws://用户名:密码@主机名:端口号
参数名称 参数说明
用户名 登录 TDengine 数据库用户名
密码 登录 TDengine 数据库密码
主机名 TDengine 数据库所在主机名称
端口号 提供 WebSocket 服务的端口,默认:6041

示例:

本机安装 TDengine 数据库,WebSocket 服务端口 6041,使用默认用户名密码,"SQLALCHEMY URL" 应为:

bash 复制代码
taosws://root:taosdata@localhost:6041  

第 5 步,配置好连接串,点击 "TEST CONNECTION" 测试连接是否成功,测试通过后点击 "CONNECT" 按钮,完成连接。

开始使用

TDengine 数据源与其它数据源使用上无差别,这里简单介绍下数据查询:

  1. Superset 界面点击右上角 "+" 号按钮,选择 "SQL query", 进入查询界面
  2. 左上角 "DATABASE" 下拉列表中选择前面已创建好的 "TDengine" 数据源
  3. "SCHEMA" 下拉列表,选择要操作的数据库名(系统库不显示)
  4. "SEE TABLE SCHEMA" 选择要操作的超级表名或普通表名(子表不显示)
  5. 随后会在下方显示选定表的 SCHEMA 信息
  6. 在 SQL 编辑器区域可输入符合 TDengine 语法的任意 SQL 语句执行

示例效果

我们选择 Superset Chart 模板中较流行的两个模板做了效果展示,以智能电表数据为例:

  1. "Aggregate" 类型,展示在第 4 组中指定时间段内每分钟采集电压值(voltage)最大值
  1. "RAW RECORDS" 类型,展示在第 4 组中指定时间段内 current, voltage 的采集值
相关推荐
字节跳动数据平台1 小时前
5000 字技术向拆解 | 火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
武子康7 小时前
大数据-239 离线数仓 - 广告业务实战:Flume 导入日志到 HDFS,并完成 Hive ODS/DWD 分层加载
大数据·后端·apache hive
字节跳动数据平台1 天前
代码量减少 70%、GPU 利用率达 95%:火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
得物技术1 天前
深入剖析Spark UI界面:参数与界面详解|得物技术
大数据·后端·spark
武子康1 天前
大数据-238 离线数仓 - 广告业务 Hive分析实战:ADS 点击率、购买率与 Top100 排名避坑
大数据·后端·apache hive
武子康2 天前
大数据-237 离线数仓 - Hive 广告业务实战:ODS→DWD 事件解析、广告明细与转化分析落地
大数据·后端·apache hive
大大大大晴天2 天前
Flink生产问题排障-Kryo serializer scala extensions are not available
大数据·flink
武子康4 天前
大数据-236 离线数仓 - 会员指标验证、DataX 导出与广告业务 ODS/DWD/ADS 全流程
大数据·后端·apache hive
武子康5 天前
大数据-235 离线数仓 - 实战:Flume+HDFS+Hive 搭建 ODS/DWD/DWS/ADS 会员分析链路
大数据·后端·apache hive
DianSan_ERP6 天前
电商API接口全链路监控:构建坚不可摧的线上运维防线
大数据·运维·网络·人工智能·git·servlet