消费 Kafka 一个TOPIC数据,插入到另一个KAFKA的TOPIC

从 Kafka 消费 CDC 数据(变更捕获,需 Upsert 语义)

用 kafka 连接器 + 主键 + 处理函数 模拟 Upsert,示例:

CREATE TABLE `KAFKA_TEST_0002` (

`LGL_PERN_CODE` VARCHAR COMMENT 'LGL_PERN_CODE',

`LBLTY_ACCT_NUM` VARCHAR COMMENT 'LBLTY_ACCT_NUM',

`ACCT_NM` VARCHAR COMMENT 'ACCT_NM',

`CUST_NUM` VARCHAR COMMENT 'CUST_NUM',

`NAT_CODE` VARCHAR COMMENT 'NAT_CODE',

-- 声明主键(用于 Upsert 去重)

PRIMARY KEY (`LBLTY_ACCT_NUM`) NOT ENFORCED

) WITH (

'connector' = 'kafka', -- 恢复为 kafka 连接器

'topic' = 'KAFKA_TEST_0002',

'properties.bootstrap.servers' = '10.57.48.38:21007,10.57.48.37:21007,10.57.48.36:21007',

'properties.group.id' = '7a074dd07bfb4d4da39eb0f5773b952b',

'scan.startup.mode' = 'earliest-offset',

'format' = 'debezium-json', -- 适配 CDC 格式

'debezium-json.ignore-parse-errors' = 'true',

'debezium-json.schema-include' = 'true',

'properties.security.protocol' = 'SASL_PLAINTEXT',

'properties.kerberos.domain.name' = 'hadoop.124dba82_3b54_0125_81e4_110652049a41.com',

'properties.sasl.kerberos.service.name' = 'kafka'

);

-- 如需 Upsert 输出,再通过 Sink 写入 upsert-kafka

CREATE TABLE KafkaUpsertSink (

`LBLTY_ACCT_NUM` VARCHAR,

`LGL_PERN_CODE` VARCHAR,

`ACCT_NM` VARCHAR,

PRIMARY KEY (`LBLTY_ACCT_NUM`) NOT ENFORCED

) WITH (

'connector' = 'upsert-kafka', -- Sink 侧使用 upsert-kafka

'topic' = 'sink_topic',

'properties.bootstrap.servers' = '...',

'key.format' = 'json',

'value.format' = 'json'

);

-- 业务逻辑:从 Kafka 读 CDC 数据,处理后 Upsert 写入

INSERT INTO KafkaUpsertSink

SELECT LBLTY_ACCT_NUM, LGL_PERN_CODE, ACCT_NM

FROM `KAFKA_TEST_0002`;

相关推荐
9***Y482 小时前
后端在分布式中的Apache Kafka
分布式·kafka
yumgpkpm2 小时前
腾讯TBDS和Cloud Data AI CMP 比较的缺陷在哪里?
hive·hadoop·elasticsearch·zookeeper·spark·kafka·hbase
小小工匠3 小时前
大规模数据处理:12_Kappa架构剖析与Kafka在大规模流式数据处理中的应用实践
架构·kafka·kappa
西岭千秋雪_3 小时前
Kafka服务端日志梳理
java·分布式·zookeeper·kafka
2501_941148153 小时前
跨语言分布式AI平台建设与实践:Python、Java、C++、Go深度探索
kafka·rabbitmq
笨手笨脚の3 小时前
Kafka-3 Kafka 中的生产者
kafka·消息队列·事务·幂等·生产者·分区选择算法
lhyzws11 小时前
CENTOS上的网络安全工具(三十二) Portainer Kafka-Clickhouse部署(1)
linux·kafka·centos
Sinowintop1 天前
易连EDI-EasyLink无缝集成之消息队列Kafka
分布式·网络协议·kafka·集成·国产化·as2·国产edi
佛祖让我来巡山1 天前
Kafka入门:从初识到Spring Boot实战
kafka·kafka入门·kafka案例
二进制_博客2 天前
eventTime+watermarker+allowedLateness到底窗口关闭时间是什么?
flink·kafka