消费 Kafka 一个TOPIC数据,插入到另一个KAFKA的TOPIC

从 Kafka 消费 CDC 数据(变更捕获,需 Upsert 语义)

用 kafka 连接器 + 主键 + 处理函数 模拟 Upsert,示例:

CREATE TABLE `KAFKA_TEST_0002` (

`LGL_PERN_CODE` VARCHAR COMMENT 'LGL_PERN_CODE',

`LBLTY_ACCT_NUM` VARCHAR COMMENT 'LBLTY_ACCT_NUM',

`ACCT_NM` VARCHAR COMMENT 'ACCT_NM',

`CUST_NUM` VARCHAR COMMENT 'CUST_NUM',

`NAT_CODE` VARCHAR COMMENT 'NAT_CODE',

-- 声明主键(用于 Upsert 去重)

PRIMARY KEY (`LBLTY_ACCT_NUM`) NOT ENFORCED

) WITH (

'connector' = 'kafka', -- 恢复为 kafka 连接器

'topic' = 'KAFKA_TEST_0002',

'properties.bootstrap.servers' = '10.57.48.38:21007,10.57.48.37:21007,10.57.48.36:21007',

'properties.group.id' = '7a074dd07bfb4d4da39eb0f5773b952b',

'scan.startup.mode' = 'earliest-offset',

'format' = 'debezium-json', -- 适配 CDC 格式

'debezium-json.ignore-parse-errors' = 'true',

'debezium-json.schema-include' = 'true',

'properties.security.protocol' = 'SASL_PLAINTEXT',

'properties.kerberos.domain.name' = 'hadoop.124dba82_3b54_0125_81e4_110652049a41.com',

'properties.sasl.kerberos.service.name' = 'kafka'

);

-- 如需 Upsert 输出,再通过 Sink 写入 upsert-kafka

CREATE TABLE KafkaUpsertSink (

`LBLTY_ACCT_NUM` VARCHAR,

`LGL_PERN_CODE` VARCHAR,

`ACCT_NM` VARCHAR,

PRIMARY KEY (`LBLTY_ACCT_NUM`) NOT ENFORCED

) WITH (

'connector' = 'upsert-kafka', -- Sink 侧使用 upsert-kafka

'topic' = 'sink_topic',

'properties.bootstrap.servers' = '...',

'key.format' = 'json',

'value.format' = 'json'

);

-- 业务逻辑:从 Kafka 读 CDC 数据,处理后 Upsert 写入

INSERT INTO KafkaUpsertSink

SELECT LBLTY_ACCT_NUM, LGL_PERN_CODE, ACCT_NM

FROM `KAFKA_TEST_0002`;

相关推荐
喜闻乐见天13 小时前
Kafka双机KRaft集群部署
kafka
Matrix7017 小时前
Kafka 单节点测试环境部署实战
大数据·kafka
Elastic 中国社区官方博客21 小时前
将 Logstash 管道从 Azure Event Hubs 迁移到 Kafka 输入插件
大数据·数据库·elasticsearch·microsoft·搜索引擎·kafka·azure
indexsunny1 天前
互联网大厂Java面试实录:Spring Boot到微服务的深入探讨
java·spring boot·微服务·面试·eureka·kafka·jwt
海兰1 天前
Logstash 从 Azure Event Hubs 插件迁移至 Kafka 插件完整实战指南
kafka·linq·azure
zz0723201 天前
Apache Kafka 开源的分布式事件流平台
分布式·kafka·apache
却话巴山夜雨时i1 天前
互联网大厂Java面试实录:从Spring Boot到Kafka的场景应用深度解析
spring boot·kafka·prometheus·微服务架构·java面试·技术解析·互联网大厂
__土块__2 天前
一次企业知识库同步系统改造复盘:从全量拉取到增量消息的演进与多级缓存一致性保障
kafka·多级缓存·缓存一致性·系统改造·知识库同步·增量消息·mysql binlog
却话巴山夜雨时i2 天前
Java面试实录:从Spring Boot到Kafka的技术探讨
spring boot·微服务·kafka·grafana·prometheus·java面试
Abcdzzr2 天前
2026/4/6 Windows安装Kafka
分布式·kafka