10 - 核心对象 Switch / case

简介

在Kettle(也称为Pentaho Data Integration,PDI)中,Switch/Case 是一个关键的组件,用于根据特定条件将数据流分支到不同的路径。Switch组件评估输入数据中的某个字段,并将数据标记后传递给相应的Case组件,每个Case组件根据配置的条件处理匹配的数据。这种机制不仅使得数据处理流程更为清晰和灵活,还能有效简化复杂的逻辑操作,使得数据集成和管理更为高效和易于维护。

使用

场景

如果 行流数据 isSave 为 1 则 入库 否则不做任何处理

拖拽核心对象到面板

Kafka consumer 对应的配置

JSON input 的配置

表输出的配置

配置Switch / case

调试

运行转换

使用idea发送一条消息到监听的Kafka主题

isSave 为 1的时候

可以看到表输出有一条 out 数据

isSave 为 0的时候

这时候数据应该是俩条而已,可以看到 Switch / case 有俩条数据,表输出没有增加数据

然后可以看到数据库也是只有一条数据

相关推荐
TDengine (老段)2 天前
从 ETL 到 Agentic AI:工业数据管理变革与 TDengine IDMP 的治理之道
数据库·数据仓库·人工智能·物联网·时序数据库·etl·tdengine
RestCloud8 天前
10迁移TiDB数据库数据到GaussDB
数据库·tidb·etl·gaussdb·数据处理·数据同步·集成平台
Sirius Wu14 天前
大数据平台ETL任务导入分库分表数据
大数据·数据仓库·etl
knqiufan15 天前
面向海量关系型数据的实时全文检索:从 Elasticsearch 到 Logstash 的架构解析
elasticsearch·etl
Jinkxs17 天前
告别人工建模:AI 自动化 ETL 工具对比,数据 pipeline 搭建时间缩短 60% 的实践
人工智能·自动化·etl
老刘聊集成17 天前
ETL 工具选型评测:2025 年 Top 5 工具优缺点对比(附评分表)
数据仓库·etl
RestCloud20 天前
ETLCloud中的数据转化规则是什么意思?怎么执行
数据库·数据仓库·etl
老刘聊集成20 天前
数据一致性校验:ETL保证信息准确无误的关键步骤
数据仓库·etl