flink部署使用(flink-connector-jdbc)连接达梦数据库并写入读取数据

flink介绍

1)Apache Flink 是一个框架和分布式处理引擎,用于对无界和有界数据流进行有状态计算。Flink 被设计在所有常见的集群环境中运行,以内存执行速度和任意规模来执行计算。

2)在实时计算或离线任务中,往往需要与关系型数据库交互,例如 MySQL、PostgreSQL 等。Apache Flink 提供了 JDBC Connector,可以方便地将流式数据写入或读取数据库。

3)flink版本下载:https://archive.apache.org/dist/flink/

flink单机搭建

basic 复制代码
## 1. 下载并解压flink
[root@localhost flink_soft]# mkdir /data/flink_soft
[root@localhost flink_soft]# tar -zxvf flink-1.16.1-bin-scala_2.12.tgz
## 2. 修改配置文件,把下面的三行全部去掉
[root@localhost flink-1.16.1]# cd /data/flink_soft/flink-1.16.1
[root@localhost flink-1.16.1]# vim /data/flink_soft/flink-1.16.1/conf/flink-conf.yaml
rest.port: 8081
rest.address: 0.0.0.0
rest.bind-address: 0.0.0.0
## 3. 启动flink
[root@localhost flink-1.16.1]# ./bin/start-cluster.sh
## 4. 查询进程是否存在
[root@localhost flink-1.16.1]# ps aux | grep flink
## 5. 访问http://192.168.112.162:8081/ 即可。

将已经适配dameng的jar包放到lib目录下

1)下载已经适配好的包https://github.com/gaoyuan98/flink-connector-jdbc-dameng/releases

提供了两个版本的dameng适配驱动包,一个是实现JdbcFactory接口,还有一个是实现JdbcDialectFactory接口。

2)截止发文v3.3版本官方还未正式发版,所以大概率是用这个版本:flink-connector-jdbc-dameng_20250331_(适用于v3.2及以下版本)

3)将下载好的适配包放到flink的lib目录下

DmJdbcDriver8.jar 达梦数据库jdbc驱动,可以更换为与数据库版本相同的驱动。

flink-connector-jdbc-3.1.jar flink使用jdbc方式连接数据库时的桥接包,如果项目本身已经有flink-connector-jdbc包可忽略该包。

flink-connector-jdbc-dameng-1.0.jar flink使用jdbc方式连接达梦数据库的适配包,源码基于flink-connector-jdbc.jar包进行调整,所以该包必须存在。

如项目中已经有flink-connector-jdbc的包,那么只需要使用DmJdbcDriver8.jar跟flink-connector-jdbc-dameng-1.0.jar的驱动包即可。

如项目中没有flink-connector-jdbc的包,就把这三个包全部放到lib下。

plain 复制代码
[root@localhost lib]# cd /data/flink_soft/flink-1.16.1/lib
[root@localhost lib]# ll
total 204020
-rw-r--r--. 1 root root   1615303 Jan 17 00:30 DmJdbcDriver8.jar
-rwxrwxrwx. 1 root root    198857 Jan 19  2023 flink-cep-1.16.1.jar
-rwxrwxrwx. 1 root root    516144 Jan 19  2023 flink-connector-files-1.16.1.jar
-rw-r--r--. 1 root root    277945 Mar 28 23:46 flink-connector-jdbc-3.1-SNAPSHOT.jar
-rw-r--r--. 1 root root     13458 Mar 29 00:13 flink-connector-jdbc-dameng-1.0-SNAPSHOT.jar
-rwxrwxrwx. 1 root root    102470 Jan 19  2023 flink-csv-1.16.1.jar
-rwxrwxrwx. 1 root root 117107159 Jan 19  2023 flink-dist-1.16.1.jar
-rwxrwxrwx. 1 root root    180248 Jan 19  2023 flink-json-1.16.1.jar
-rwxrwxrwx. 1 root root  21052640 Jan 19  2023 flink-scala_2.12-1.16.1.jar
-rwxrwxrwx. 1 root root  10737871 Jan 13  2023 flink-shaded-zookeeper-3.5.9.jar
-rwxrwxrwx. 1 root root  15367504 Jan 19  2023 flink-table-api-java-uber-1.16.1.jar
-rwxrwxrwx. 1 root root  36249667 Jan 19  2023 flink-table-planner-loader-1.16.1.jar
-rwxrwxrwx. 1 root root   3133690 Jan 19  2023 flink-table-runtime-1.16.1.jar
-rwxrwxrwx. 1 root root    208006 Jan 13  2023 log4j-1.2-api-2.17.1.jar
-rwxrwxrwx. 1 root root    301872 Jan 13  2023 log4j-api-2.17.1.jar
-rwxrwxrwx. 1 root root   1790452 Jan 13  2023 log4j-core-2.17.1.jar
-rwxrwxrwx. 1 root root     24279 Jan 13  2023 log4j-slf4j-impl-2.17.1.jar
plain 复制代码
[root@localhost flink-1.16.1]# cd /data/flink_soft/flink-1.16.1
[root@localhost flink-1.16.1]# ./bin/stop-cluster.sh
[root@localhost flink-1.16.1]# ./bin/start-cluster.sh

## 如果报错的话查看这个日志
tail -f $FLINK_HOME/log/flink-*-taskexecutor-*.log

flink驱动验证

在达梦数据库上创建表数据

sql 复制代码
CREATE TABLE source_table (
    id INT PRIMARY KEY,
    name VARCHAR(50),
    age INT
);
INSERT INTO source_table (id, name, age) VALUES (1, 'Alice', 30);
INSERT INTO source_table (id, name, age) VALUES (2, 'Bob', 25);
INSERT INTO source_table (id, name, age) VALUES (3, 'Charlie', 40);
COMMIT;
sql 复制代码
[root@localhost lib]# cd /data/flink_soft/flink-1.16.1/
[root@localhost flink-1.16.1]#  ./bin/sql-client.sh embedded

CREATE TABLE source (
    id INT,
    name STRING,
    age INT
) WITH (
    'connector' = 'jdbc',
    'url' = 'jdbc:dm://192.168.127.2:5236/SYSDBA',
    'table-name' = 'source_table',
    'driver' = 'dm.jdbc.driver.DmDriver',
    'username' = 'SYSDBA',
    'password' = 'SYSDBA123'
);


## 在 Flink SQL CLI 中查询数据
SELECT * FROM source;
## 筛选数据,比如 查询年龄大于 30 的用户:
SELECT id, name FROM source WHERE age > 30;
## 插入数据
INSERT INTO source (id, name, age) VALUES (3, '33', 33);
sql 复制代码
CREATE TABLE source1 (
    id INT,
    name STRING,
    age INT
) WITH (
    'connector' = 'dameng',
    'url' = 'jdbc:dm://81.70.105.201:5236/SYSDBA',
    'table-name' = 'source_table',
    'driver' = 'dm.jdbc.driver.DmDriver',
    'username' = 'SYSDBA',
    'password' = '123456'
);
SELECT * FROM source1;

目前flink-connector-jdbc中,v3.0 - v3.2 都是同一个实现思路,也就是只需要集成实现JdbcDialectFactory接口的方法即可,main分支的话是实现JdbcFactory接口函数,也就是需要适配两个版本。

因使用的是v3.3的dameng包,但flink-connector-jdbc是v3.2及以下版本,驱动包接口实现不对所以会报这个错。

相关推荐
恒拓高科WorkPlus17 分钟前
内部聊天软件,BeeWorks-安全的企业内部通讯软件
大数据·网络·安全
千羽星弦18 分钟前
oracle体系结构
数据库·oracle
科技小E39 分钟前
视频设备轨迹回放平台EasyCVR打造水库大坝智慧安防视频监控智能分析方案
大数据·网络·人工智能·音视频·安防监控
小安同学iter44 分钟前
Redis入门(Java中操作Redis)
数据库·redis·缓存
zxsz_com_cn1 小时前
医疗设备预测性维护的合规性挑战与标准化路径研究
大数据·数据库·人工智能
赤橙红的黄2 小时前
Spring编程式事务(本地事务)
java·数据库·spring
hkfkn2 小时前
SQL刷题日志(day2)
数据库·sql
PcVue China2 小时前
PcVue助力立讯:精密制造的智能化管控实践!
大数据·人工智能·制造
潇湘秦2 小时前
Oracle19C低版本一天遭遇两BUG(ORA-04031/ORA-600)
数据库·oracle
Data-Miner2 小时前
158页PPT | 某大型研发制造集团信息化IT规划整体方案
大数据·制造