数仓学习---15、数据仓库工作流调度

1、数据仓库工作流调度

1.1 调度工具部署

工具部署链接

1.2 新数据生成

1.2.1 用户行为日志

1、启动日志采集通道,包括Kafka、Flume等

(1)启动Zookeeper

bash 复制代码
zk.sh start

(2)启动Kafka

bash 复制代码
kf.sh start

(3)启动Flume

bash 复制代码
f1.sh start
f2.sh start

2、修改日志模拟器配置文件

修改hadoop102和hadoop103两台节点中的/opt/module/applog/application.yml文件,修改mock.date参数如下。

复制代码
mock.date: "2020-06-15"

3、执行日志生成脚本

bash 复制代码
lg.sh

4、观察HDFS上是否有2020-06-15的日志数据生成

1.2.2 业务数据

1、修改Maxwell配置文件

(1)修改/opt/module/maxwell/config.properties文件

bash 复制代码
vim /opt/module/maxwell/config.properties

(2)修改mock_date参数设置如下

复制代码
mock_date=2020-06-15

2、启动增量表采集通道,包括Maxwel、Kafka、Flume等

(1)启动Maxwell

bash 复制代码
mxw.sh start

注意:若Maxwell当前正在运行,为确保上述mock参数生效,需重启Maxwell。

(2)启动Flume

bash 复制代码
f3.sh start

(3)修改业务数据模拟器配置文件中的mock_date参数

复制代码
mock.date=2020-06-15

(4)执行业务数据生成命令

bash 复制代码
java -jar gmall2020-mock-db-2021-10-10.jar 

(5)观察HDFS上增量表是否有2020-06-15的数据生成

1.3 工作流调度实操

由于DolphinScheduler集群模式启动进程较多,对虚拟机内存要求较高。故下面提供两种方式,可根据虚拟机内存情况进行选择。

1.3.1 DolphinScheduler集群模式

1、启动DolphinScheduler

bash 复制代码
dolphinscheduler/bin/start-all.sh 

2、使用普通用户登录

3、向DolphinScheduler资源中心上传工作流所需脚本

(1)创建文件夹

(2)上传工作流所需脚本

将工作流所需的所有脚本上传到资源中心scripts路径下,结果如下

4、向DolphinScheduler的WorkerServer节点分发脚本依赖的组件

由于工作流要执行的脚本需要调用Hive、DataX等组件,故在DolphinScheduler的集群模式下,需要确保每个WorkerServer节点都有脚本所依赖的组件。

bash 复制代码
 xsync /opt/module/hive/
 xsync /opt/module/spark/
 xsync /opt/module/datax/

5、创建工作流

(1)在gmall项目下创建工作流

(2)各任务节点配置如下

mysql_to_hdfs_full

hdfs_to_ods_db

hdfs_to_ods_log

ods_to_dwd

ods_to_dim

dwd_to_dws_1d

dws_1d_to_dws_nd

dws_1d_to_dws_td

dws_to_ads

hdfs_to_mysql

(3)各节点依赖关系如下

(4)保存工作流

注意:定时调度时,全局参数值应设置为$[yyyy-MM-dd-1]或者空值。

7、上线工作流

8、执行工作流

相关推荐
QT 小鲜肉19 分钟前
【QT/C++】Qt定时器QTimer类的实现方法详解(超详细)
开发语言·数据库·c++·笔记·qt·学习
TTBIGDATA30 分钟前
【Ambari开启Kerberos】KERBEROS SERVICE CHECK 报错
大数据·运维·hadoop·ambari·cdh·bigtop·ttbigdata
开利网络1 小时前
合规底线:健康产品营销的红线与避坑指南
大数据·前端·人工智能·云计算·1024程序员节
非著名架构师1 小时前
量化“天气风险”:金融与保险机构如何利用气候大数据实现精准定价与投资决策
大数据·人工智能·新能源风光提高精度·疾风气象大模型4.0
Mr.Jessy1 小时前
Web APIs 学习第五天:日期对象与DOM节点
开发语言·前端·javascript·学习·html
Hello.Reader1 小时前
用 CdcUp CLI 一键搭好 Flink CDC 演练环境
大数据·flink
存在morning1 小时前
【人工智能学习笔记 三】 AI教学之前端跨栈一:React整体分层架构
笔记·学习·架构
巫婆理发2222 小时前
评估指标+数据不匹配+贝叶斯最优误差(分析方差和偏差)+迁移学习+多任务学习+端到端深度学习
深度学习·学习·迁移学习
熙梦数字化2 小时前
2025汽车零部件行业数字化转型落地方案
大数据·人工智能·汽车
Hello.Reader2 小时前
Flink CDC「Data Pipeline」定义与参数速查
大数据·flink