消费 Kafka 一个TOPIC数据,插入到另一个KAFKA的TOPIC

从 Kafka 消费 CDC 数据(变更捕获,需 Upsert 语义)

用 kafka 连接器 + 主键 + 处理函数 模拟 Upsert,示例:

CREATE TABLE `KAFKA_TEST_0002` (

`LGL_PERN_CODE` VARCHAR COMMENT 'LGL_PERN_CODE',

`LBLTY_ACCT_NUM` VARCHAR COMMENT 'LBLTY_ACCT_NUM',

`ACCT_NM` VARCHAR COMMENT 'ACCT_NM',

`CUST_NUM` VARCHAR COMMENT 'CUST_NUM',

`NAT_CODE` VARCHAR COMMENT 'NAT_CODE',

-- 声明主键(用于 Upsert 去重)

PRIMARY KEY (`LBLTY_ACCT_NUM`) NOT ENFORCED

) WITH (

'connector' = 'kafka', -- 恢复为 kafka 连接器

'topic' = 'KAFKA_TEST_0002',

'properties.bootstrap.servers' = '10.57.48.38:21007,10.57.48.37:21007,10.57.48.36:21007',

'properties.group.id' = '7a074dd07bfb4d4da39eb0f5773b952b',

'scan.startup.mode' = 'earliest-offset',

'format' = 'debezium-json', -- 适配 CDC 格式

'debezium-json.ignore-parse-errors' = 'true',

'debezium-json.schema-include' = 'true',

'properties.security.protocol' = 'SASL_PLAINTEXT',

'properties.kerberos.domain.name' = 'hadoop.124dba82_3b54_0125_81e4_110652049a41.com',

'properties.sasl.kerberos.service.name' = 'kafka'

);

-- 如需 Upsert 输出,再通过 Sink 写入 upsert-kafka

CREATE TABLE KafkaUpsertSink (

`LBLTY_ACCT_NUM` VARCHAR,

`LGL_PERN_CODE` VARCHAR,

`ACCT_NM` VARCHAR,

PRIMARY KEY (`LBLTY_ACCT_NUM`) NOT ENFORCED

) WITH (

'connector' = 'upsert-kafka', -- Sink 侧使用 upsert-kafka

'topic' = 'sink_topic',

'properties.bootstrap.servers' = '...',

'key.format' = 'json',

'value.format' = 'json'

);

-- 业务逻辑:从 Kafka 读 CDC 数据,处理后 Upsert 写入

INSERT INTO KafkaUpsertSink

SELECT LBLTY_ACCT_NUM, LGL_PERN_CODE, ACCT_NM

FROM `KAFKA_TEST_0002`;

相关推荐
小江的记录本5 小时前
【Kafka核心】架构模型:Producer、Broker、Consumer、Consumer Group、Topic、Partition、Replica
java·数据库·分布式·后端·搜索引擎·架构·kafka
空中海15 小时前
Kafka :存储、复制与可靠性
分布式·kafka·linq
渣渣盟15 小时前
构建企业级实时数据管道:Kafka + Flink 最佳实践
分布式·flink·kafka
空中海18 小时前
Spring Boot Kafka 项目 Demo:订单事件系统 专家知识、源码阅读路线与面试题
spring boot·kafka·linq
空中海18 小时前
Kafka 基础:从消息队列到事件流平台
分布式·kafka·linq
空中海21 小时前
Kafka Streams、Connect 与生态
分布式·kafka·linq
Knight_AL3 天前
从 0 到 1:PG WAL → Debezium → Kafka → Spring Boot → Redis
spring boot·redis·kafka
无籽西瓜a3 天前
【西瓜带你学Kafka | 第六期】Kafka 生产确认、消费 API 与分区分配策略(文含图解)
java·分布式·后端·kafka·消息队列·mq
无籽西瓜a3 天前
【西瓜带你学Kafka | 第七期】Kafka 日志存储体系:保留清理、消息格式与分段刷新策略(文含图解)
java·分布式·后端·kafka·消息队列·mq
冷小鱼3 天前
消息队列(MQ)技术全景科普:从选型到AI+未来
人工智能·kafka·rabbitmq·rocketmq·mq·pulsar