02 - 步骤 Kafka consumer

简介

Kafka consumer 步骤,用于连接和消费 Apache Kafka 中的数据,它可以作为数据管道的一部分,将 Kafka 中的数据提取到 Kettle 中进行进一步处理、转换和加载,或者将其直接传输到目标系统中。

使用

场景

我需要订阅一个Kafka的数据,让Kettle 进行下一步的数据清洗。

1、将Kafka consumer 对象拖出来到面板

2、配置Kafka consumer

需要配置的信息

transformation直接new就行

在配置返回的字段

这样子就可以去消费kafka的消息了

3、启动转换

这样子就是成功了

我们可以在previewdata看到返回的数据

相关推荐
_Evan_Yao6 小时前
内存映射文件与零拷贝:Kafka、RocketMQ 飞升的秘密通道
分布式·kafka·rocketmq
与遨游于天地8 小时前
分布式锁从Redis到Redisson的演进
数据库·redis·分布式
Francek Chen10 小时前
【大数据存储与管理】实验3:熟悉常用的HBase操作
大数据·数据库·分布式·hbase
七夜zippoe11 小时前
DolphinDB分布式表:创建与管理
数据库·分布式·维度·dolphindb·数据写入
KmSH8umpK11 小时前
Redis分布式锁进阶第十七篇
数据库·redis·分布式
fengxin_rou11 小时前
JVM 内存结构与内存溢出 / 泄漏问题全解析
java·开发语言·jvm·分布式·rabbitmq
gQ85v10Db1 天前
Redis分布式锁进阶第十七篇:微服务分布式锁全局治理 + 跨团队统一规范落地 + 全链路稳定性提升方案
redis·分布式·微服务
AM越.1 天前
助睿:!!零代码解决!!订单利润分流数据加工o(* ̄▽ ̄*)ブ
数据仓库·笔记·etl·助睿
gQ85v10Db1 天前
Redis分布式锁进阶第十八篇:本地缓存+分布式锁双锁架构 + 高并发削峰兜底 + 极致性能无损优化实战
redis·分布式·缓存
小江的记录本1 天前
【Kafka核心】Kafka高性能的四大核心支柱:零拷贝、批量发送、页缓存、压缩
java·数据库·分布式·后端·缓存·kafka·rabbitmq