10 - 核心对象 Switch / case

简介

在Kettle(也称为Pentaho Data Integration,PDI)中,Switch/Case 是一个关键的组件,用于根据特定条件将数据流分支到不同的路径。Switch组件评估输入数据中的某个字段,并将数据标记后传递给相应的Case组件,每个Case组件根据配置的条件处理匹配的数据。这种机制不仅使得数据处理流程更为清晰和灵活,还能有效简化复杂的逻辑操作,使得数据集成和管理更为高效和易于维护。

使用

场景

如果 行流数据 isSave 为 1 则 入库 否则不做任何处理

拖拽核心对象到面板

Kafka consumer 对应的配置

JSON input 的配置

表输出的配置

配置Switch / case

调试

运行转换

使用idea发送一条消息到监听的Kafka主题

isSave 为 1的时候

可以看到表输出有一条 out 数据

isSave 为 0的时候

这时候数据应该是俩条而已,可以看到 Switch / case 有俩条数据,表输出没有增加数据

然后可以看到数据库也是只有一条数据

相关推荐
RestCloud14 小时前
PostgreSQL的数据集成之路:ETL+CDC实现实时多源聚合
数据库·数据仓库·postgresql·etl·数据处理·数据传输·数据同步
呆呆小金人3 天前
SQL入门: HAVING用法全解析
大数据·数据库·数据仓库·sql·数据库开发·etl·etl工程师
西岭千秋雪_11 天前
RAG核心特性:ETL
数据仓库·人工智能·spring boot·ai编程·etl
Hello.Reader12 天前
优化 Flink 基于状态的 ETL少 Shuffle、不膨胀、可落地的工程
flink·php·etl
孟意昶12 天前
Spark专题-第三部分:性能监控与实战优化(1)-认识spark ui
大数据·数据仓库·sql·ui·spark·etl
LgZhu(Yanker)13 天前
40、企业智能决策引擎:BI分析平台的架构设计与业务实践
信息可视化·数据分析·etl·bi·大屏
isNotNullX13 天前
ETL详解:从核心流程到典型应用场景
大数据·数据仓库·人工智能·架构·etl