【工具使用-数据可视化工具】Apache Superset

1. 工具介绍

1.1. 简介

一个轻量级、高性能的数据可视化工具

1.2. 核心功能

  • 丰富的可视化库:支持 40+ 预置可视化类型,包括折线图、柱状图、饼图、散点图、地图等,满足时序、地理信息等多种分析需求
  • 强大的 SQL Lab:内置 Web 化 SQL 编辑器,支持多数据源查询和结果可视化,无需离开平台即可完成数据探索
  • 自定义可视化插件:支持通过 JavaScript/TypeScript 编写可视化插件,实现企业级定制,满足特殊展现需求

2. 安装Superset

2.1. 系统依赖

ubuntu20.04 系统依赖,其他系统参考官方文档

bash 复制代码
sudo apt-get install build-essential libssl-dev libffi-dev python-dev python3-pip libsasl2-dev libldap2-dev default-libmysqlclient-dev

2.2. Python环境

  • 建议单独为SuperSet创建一个虚拟环境,用这个环境将Superset进程后台执行
bash 复制代码
conda create -n superset python=3.10
# python环境里安装superset
pip install --upgrade setuptools pip
pip install apache-superset marshmallow==3.26.1

2.3. Superset数据库配置

  • 初始化数据库(底层的操作是建库,建表)
bash 复制代码
# 添加环境变量
export FLASK_APP=superset
# flask是一个python web框架,superset使用的就是flask框架

# 生成随机的秘钥
openssl rand -base64 42
# 复制上面生成的秘钥
# 添加到环境变量(替换"openssl-secret-key"为上面生成的秘钥)
export SUPERSET_SECRET_KEY="openssl-secret-key"
bash 复制代码
# 初始化数据库
superset db upgrade
  • 按照显示来设置用户名和密码
bash 复制代码
superset fab create-admin
  • Superset初始化
bash 复制代码
superset init

3. 使用Superset

3.1. 启动和停止

  • Gunicorn:是一个用于UNIX系统的Python WSGI HTTP服务器,以其易用性、性能优越及与多种Python web框架的兼容性而被广泛应用于部署Python网络应用。
bash 复制代码
pip install gunicorn
# 启动superset
gunicorn --workers 5 --timeout 120 --bind 127.0.0.1:8787  "superset.app:create_app()" --daemon

--workers:指定进程个数

--timeout:worker进程超时时间,超时会自动重启

--bind:绑定本机地址 ,即为Superset访问地址

--daemon:后台运行

  • 查看本机ip地址
bash 复制代码
ifconfig

根据自己的需求场景,选择合适的ip地址,进行bind配置:

场景 推荐 --bind 配置 说明
本地开发测试 127.0.0.1:8000 安全且仅本地访问
局域网/公网直接访问 公网ip地址:8000 绑定具体网卡IP,需开放防火墙端口
生产环境(Nginx代理) 127.0.0.1:8000 + Nginx配置 高安全性和性能优化
Docker容器内运行 0.0.0.0:8000 需映射容器端口到宿主机
  • 关闭/杀死后台superset进程
bash 复制代码
ps -ef |grep superset |grep -v grep |awk '{print $2}' |xargs kill -9

3.2. Web端配置使用

TODO

相关推荐
idwangzhen3 小时前
GEO优化系统哪家更专业
python·信息可视化
qq_12498707533 小时前
基于springboot的会议室预订系统设计与实现(源码+论文+部署+安装)
java·vue.js·spring boot·后端·信息可视化·毕业设计·计算机毕业设计
还在忙碌的吴小二7 小时前
Go-View 数据可视化大屏使用手册
开发语言·后端·信息可视化·golang
麦兜*9 小时前
深入解析云原生时代的高性能消息中间件:基于Apache Pulsar与Kafka架构对比的万亿级数据吞吐与低延迟实时处理实战
云原生·kafka·apache
SelectDB技术团队9 小时前
上市大模型企业数据基础设施的选择:MiniMax 基于阿里云 SelectDB 版,打造全球统一AI可观测中台
数据库·数据仓库·人工智能·ai·apache
DolphinScheduler社区10 小时前
Linux 环境下,Apache DolphinScheduler 如何驱动 Flink 消费 Kafka 数据?
linux·flink·kafka·开源·apache·海豚调度·大数据工作流调度
安科瑞小许10 小时前
能碳管理平台:园区绿色转型的“智慧中枢”
大数据·人工智能·信息可视化·能源·双碳·光伏·零碳园区
DolphinScheduler社区10 小时前
深度探秘 Apache DolphinScheduler 数据库模式
数据库·开源·apache·开源社区·海豚调度·大数据工作流调度
zhangkaixuan45621 小时前
Paimon 读取数据流程深度解析
大数据·hadoop·flink·apache·paimon
zhangkaixuan4561 天前
paimon 主键表 vs 非主键表配置速查
大数据·数据库·flink·apache·paimon