用 flink 插件chunjun实现全量+增量同步-达梦数据库到postgresql

用 flink 插件chunjun实现全量+增量同步,这里以达梦数据库同步到postgresql数据库为例。

纯钧下载地址:纯钧

纯钧是一款稳定、易用、高效、批流一体的数据集成框架,目前基于实时计算引擎Flink实现多种异构数据源之间的数据同步与计算,已在上千家公司部署且稳定运行。

达梦表ddl:

sql 复制代码
CREATE TABLE SYSDBA.SOURCE_TABLE (
	ID INT NOT NULL,
	NAME VARCHAR(100),
	CREATE_TIME INT,
	CONSTRAINT PK_SOURCE_TABLE_ID PRIMARY KEY (ID)
);
CREATE UNIQUE INDEX INDEX33555468 ON SYSDBA.SOURCE_TABLE (ID);

postgresql ddl:

sql 复制代码
CREATE TABLE public.SINK_TABLE (
	id int4 NOT NULL,
	"name" varchar(100) NULL,
	create_time int4 NULL,
	CONSTRAINT pk_SINK_TABLE_id2 PRIMARY KEY (id)
);

纯钧的sql:

sql 复制代码
create table SOURCE_TABLE(
    ID  INT, 
    NAME varchar(200),
    CREATE_TIME INT
    )
with (
      'connector' = 'dm-x',
      'url' = 'jdbc:dm://11.0.24.107:5236',
      'schema' = 'SYSDBA',
      'table-name' = 'SOURCE_TABLE',
      'username' = 'SYSDBA',
      'password' = 'SYSDBA001',
      'scan.increment.column' = 'CREATE_TIME',
      'scan.increment.column-type' = 'int',
      'scan.polling-interval' = '3000',
      'scan.fetch-size' = '200',
      'scan.query-timeout' = '10'
);
CREATE TABLE SINK_TABLE (
    id INT,
    name varchar(200),
    create_time INT,
    PRIMARY KEY (id) NOT ENFORCED)
    with (
    'password'='sys',
    'connector'='postgresql-x',
    'sink.buffer-flush.interval'='1000',
    'sink.all-replace'='true',
    'sink.buffer-flush.max-rows'='100',
    'table-name'='SINK_TABLE',
    'sink.parallelism'='1',
    'url'='jdbc:postgresql://11.0.101.10:39001/sys',
    'username'='sys'
    );
insert into SINK_TABLE select ID,NAME,CREATE_TIME from SOURCE_TABLE;

原理就是根据create_time这个字段的更新而增量更新修改、添加操作。

参数解释:

,'scan.increment.column' = 'create_time' -- 增量字段,根据这个字段判断是否更新

,'scan.increment.column-type' = 'int' -- 增量字段类型

,'scan.polling-interval' = '3000' --间隔轮训时间。非必填(不填为离线任务,执行一次就技术),无默认

'sink.all-replace' = 'true', -- 解释如下(其他rdb数据库类似):默认:false。定义了PRIMARY KEY才有效,否则是追加语句

-- sink.all-replace = 'true' 生成如:INSERT INTO `result3`(`mid`, `mbb`, `sid`, `sbb`) VALUES (?, ?, ?, ?) ON DUPLICATE KEY UPDATE `mid`=VALUES(`mid`), `mbb`=VALUES(`mbb`), `sid`=VALUES(`sid`), `sbb`=VALUES(`sbb`) 。会将所有的数据都替换。

-- sink.all-replace = 'false' 生成如:INSERT INTO `result3`(`mid`, `mbb`, `sid`, `sbb`) VALUES (?, ?, ?, ?) ON DUPLICATE KEY UPDATE `mid`=IFNULL(VALUES(`mid`),`mid`), `mbb`=IFNULL(VALUES(`mbb`),`mbb`), `sid`=IFNULL(VALUES(`sid`),`sid`), `sbb`=IFNULL(VALUES(`sbb`),`sbb`) 。如果新值为null,数据库中的旧值不为null,则不会覆盖。

相关推荐
chen.@-@6 分钟前
后端下载限速(redis记录实时并发,bucket4j动态限速)
数据库·redis·缓存
王小小鸭17 分钟前
【Oracle APEX开发小技巧12】
数据库·oracle
噼里啪啦啦.22 分钟前
Spring事务和事务传播机制
数据库·sql·spring
搬码红绿灯29 分钟前
MySQL主从复制深度解析:原理、架构与实战部署指南
数据库·mysql·架构
呼拉拉呼拉31 分钟前
Redis高可用架构
数据库·redis·架构·高可用架构
却尘31 分钟前
当全世界都在用 Rust 重写一切时,Prisma 却选择了反方向
前端·数据库·orm
藥瓿锻40 分钟前
2024 CKA题库+详尽解析| 15、备份还原Etcd
linux·运维·数据库·docker·容器·kubernetes·cka
远方16091 小时前
16-Oracle 23 ai-JSON-Relational Duality-知识准备
数据库·oracle·json
Wooden-Flute1 小时前
七、数据库的完整性
数据库·oracle
livemetee1 小时前
一个完整的日志收集方案:Elasticsearch + Logstash + Kibana+Filebeat (二)
大数据·elk·搜索引擎