MySQL到Doris的StreamingETL实现(Flink CDC 3.0)

1 环境准备

1)安装FlinkCDC

shell 复制代码
[root@hadoop1 software]$ tar -zxvf flink-cdc-3.0.0-bin.tar.gz -C /opt/module/

2)拖入MySQL以及Doris依赖包

将flink-cdc-pipeline-connector-doris-3.0.0.jar以及flink-cdc-pipeline-connector-mysql-3.0.0.jar防止在FlinkCDC的lib目录下

2 同步变更

2)编写MySQL到Doris的同步变更配置文件

在FlinkCDC目录下创建job文件夹,并在该目录下创建同步变更配置文件

shell 复制代码
[root@hadoop1 flink-cdc-3.0.0]$ mkdir job/

[root@hadoop1 flink-cdc-3.0.0]$ cd job

[root@hadoop1 job]$ vim mysql-to-doris.yaml

 

source:

 type: mysql

 hostname: hadoop3

 port: 3306

 username: root

 password: "123456"

 tables: test.\.

 server-id: 5400-5404

 server-time-zone: UTC+8

 

sink:

 type: doris

 fenodes: hadoop1:7030

 username: root

 password: "123456"

 table.create.properties.light_schema_change: true

 table.create.properties.replication_num: 1

 

pipeline:

 name: Sync MySQL Database to Doris

 parallelism: 1

3)启动任务并测试

(1)开启Flink集群,注意:在Flink配置信息中打开CheckPoint

shell 复制代码
[root@hadoop3 flink-1.18.0]$ vim conf/flink-conf.yaml

添加如下配置信息

shell 复制代码
execution.checkpointing.interval: 5000

分发该文件至其他Flink机器并启动Flink集群

shell 复制代码
[root@hadoop3 flink-1.18.0]$ bin/start-cluster.sh

(2)开启Doris FE

shell 复制代码
[root@hadoop1 fe]$ bin/start_fe.sh

(3)开启Doris BE

shell 复制代码
[root@hadoop1 be]$ bin/start_be.sh

(4)在Doris中创建test数据库

shell 复制代码
[root@hadoop3 doris]$ mysql -uroot -p123456 -P9030 -hhadoop1

mysql: [Warning] Using a password on the command line interface can be insecure.

Welcome to the MySQL monitor.  Commands end with ; or g.

Your MySQL connection id is 0

Server version: 5.7.99 Doris version doris-1.2.4-1-Unknown

 

Copyright (c) 2000, 2022, Oracle and/or its affiliates.

 

Oracle is a registered trademark of Oracle Corporation and/or its

affiliates. Other names may be trademarks of their respective

owners.

 

Type 'help;' or 'h' for help. Type 'c' to clear the current input statement.

 

mysql> create database test;

Query OK, 1 row affected (0.00 sec)

 

mysql> create database doris_test_route;

Query OK, 1 row affected (0.00 sec)

(5)启动FlinkCDC同步变更任务

shell 复制代码
[root@hadoop3 flink-cdc-3.0.0]$ bin/flink-cdc.sh job/mysql-to-doris.yaml

(6)刷新Doris中test数据库观察结果

(7)在MySQL的test数据中对应的几张表进行新增、修改数据以及新增列操作,并刷新Doris中test数据库观察结果

3 路由变更

1)编写MySQL到Doris的路由变更配置文件

shell 复制代码
source:

 type: mysql

 hostname: hadoop3

 port: 3306

 username: root

 password: "123456"

 tables: test_route.\.

 server-id: 5400-5404

 server-time-zone: UTC+8

 

sink:

 type: doris

 fenodes: hadoop1:7030

 benodes: hadoop1:7040

 username: root

 password: "123456"

 table.create.properties.light_schema_change: true

 table.create.properties.replication_num: 1

 

route:

 - source-table: test_route.t1

  sink-table: doris_test_route.doris_t1

 - source-table: test_route.t2

  sink-table: doris_test_route.doris_t1

 - source-table: test_route.t3

  sink-table: doris_test_route.doris_t3

 

pipeline:

 name: Sync MySQL Database to Doris

 parallelism: 1

2)启动任务并测试

she 复制代码
[root@hadoop3 flink-cdc-3.0.0]$ bin/flink-cdc.sh job/mysql-to-doris-route.yaml

3)刷新Doris中test_route数据库观察结果

4)在MySQL的test_route数据中对应的几张表进行新增、修改数据操作,并刷新Doris中doris_test_route数据库观察结果

相关推荐
武子康11 小时前
大数据-237 离线数仓 - Hive 广告业务实战:ODS→DWD 事件解析、广告明细与转化分析落地
大数据·后端·apache hive
大大大大晴天13 小时前
Flink生产问题排障-Kryo serializer scala extensions are not available
大数据·flink
武子康3 天前
大数据-236 离线数仓 - 会员指标验证、DataX 导出与广告业务 ODS/DWD/ADS 全流程
大数据·后端·apache hive
武子康4 天前
大数据-235 离线数仓 - 实战:Flume+HDFS+Hive 搭建 ODS/DWD/DWS/ADS 会员分析链路
大数据·后端·apache hive
DianSan_ERP4 天前
电商API接口全链路监控:构建坚不可摧的线上运维防线
大数据·运维·网络·人工智能·git·servlet
够快云库4 天前
能源行业非结构化数据治理实战:从数据沼泽到智能资产
大数据·人工智能·机器学习·企业文件安全
AI周红伟4 天前
周红伟:智能体全栈构建实操:OpenClaw部署+Agent Skills+Seedance+RAG从入门到实战
大数据·人工智能·大模型·智能体
B站计算机毕业设计超人4 天前
计算机毕业设计Django+Vue.js高考推荐系统 高考可视化 大数据毕业设计(源码+LW文档+PPT+详细讲解)
大数据·vue.js·hadoop·django·毕业设计·课程设计·推荐算法
计算机程序猿学长4 天前
大数据毕业设计-基于django的音乐网站数据分析管理系统的设计与实现(源码+LW+部署文档+全bao+远程调试+代码讲解等)
大数据·django·课程设计
B站计算机毕业设计超人4 天前
计算机毕业设计Django+Vue.js音乐推荐系统 音乐可视化 大数据毕业设计 (源码+文档+PPT+讲解)
大数据·vue.js·hadoop·python·spark·django·课程设计