(超详细) ETL工具之Kettle

Kettle简介

  • kettle最早是一个开源的ETL工具,后命名为Pentaho Data Integration。
  • 由JAVA开发,支持跨平台运行,其特性包括:支持100%无编码、拖拽方式开发ETL数据管道,可对接包括传统数据库、文件、大数据平台、接口、流数据等数据源,支持ETL数据管道加入机器学习算法。
  • Kettle是一个实现ETL开发的一款开发工具,Spoon是Kettle工具提供的图形化界面。

原本想上传安装包和数据连接包的,上传不了,有意可联系主页扣扣。


Kettle的核心组件

  1. 转换(Transformation):处理数据流的基本单元,由多个步骤(Step)通过跳(Hop)连接,实现数据抽取、清洗、转换等操作,每个步骤独立运行线程,支持并行处理。
  2. 作业(Job):控制任务执行顺序,按流程调用转换或其他作业,适用于需要严格顺序执行的场景(如邮件通知)

并行处理机制:Kettle的转换步骤默认以并发方式执行,所有步骤同时启动,通过行集缓存实现数据流处理,这种机制既能高效利用系统资源,又避免内存溢出,尤其适合大数据量的ETL场景,比如,多个步骤可同时处理不同的数据分片,提升整体的吞吐量。


Kettle的安装与使用

Kettle需要基于JAVA环境,因此安装前需要安装JDK,以下是版本对应关系,这里使用pdi-ce-8.2.0.0-342

|------------|---------|---------|-------------------------|
| Kettle版本 | 最低JDK要求 | 推荐JDK版本 | 兼容性说明 |
| Kettle8.x | JDK1.8 | JDK1.8 | 支持JDK1.8,部分功能需JDK1.8的特性 |
| Kettle9.x | JDK1.8 | JDK11 | 官方推荐JDK1.8,社区版可兼容JDK11 |
| Kettle10.x | JDK11 | JDK11 | ... |

解压Kettle

文件

  1. Spoon.bat/Spoon.sh:图形化工具的启动脚本,Win使用.bat,Linux/Mac使用.sh
  2. pan.bat/pan.sh:命令行工具,用于执行转换
  3. kitchen:命令行工具,用于执行作业
  4. Carte:轻量级web服务工具,支持分布式任务调度

目录

目录名 功能说明
lib 存放Kettle核心依赖库(如.jar文件)。需手动添加数据库驱动 (如MySQL的mysql-connector-java.jar),以支持连接特定数据库
plugins 插件目录,包含官方及第三方插件(如Hadoop、Spark、NoSQL等)。用户可扩展自定义插件
samples 示例文件目录,提供基础转换(.ktr)和作业(.kjb)示例,适合学习参考
logs 日志目录,记录Kettle运行时的详细日志(如错误信息、执行状态)
simple-jndi 数据库连接池配置文件(jdbc.properties),用于定义全局数据库连接
pwd 默认密码文件目录,存储加密后的密码信息
ui 用户界面资源文件(如图标、样式表)

简单使用

通过命令启动Spoon.bat


应用场景

  1. 数据迁移:将数据从CSV文件转换后加载到数据库
  2. 数据清洗:去重、过滤异常值、标准化格式等
  3. 构建数据仓库:整合多源异构数据,生成统一视图
  4. 实时与批处理:支持两种模式,适用于离线分析和实时监控
相关推荐
莫叫石榴姐2 天前
Doris为2.1版本,但json_each不可以用解决方法
数据仓库·json
老徐电商数据笔记3 天前
技术复盘第八篇:从“数据烟囱”到“能力引擎”:中型电商数仓重构实战手册
大数据·数据仓库·重构·数据中台·用户画像·技术面试
青木川崎3 天前
hive实战
数据仓库·hive·hadoop
是阿威啊3 天前
【第三站】本地虚拟机部署hive集群
linux·数据仓库·hive·hadoop·分布式
和光同尘20233 天前
一文讲透CentOS下安装部署使用MYSQL
linux·运维·数据库·数据仓库·mysql·centos·database
云器科技4 天前
无需CDP:基于现有数据仓库构建高效用户画像系统
数据仓库·湖仓一体·lakehouse·无需 cdp
xerthwis4 天前
HDFS:那座正在云化与解构的“古老高墙”
大数据·数据仓库·人工智能·hdfs·数据库开发·数据库架构
ghgxm5205 天前
EXCEL使用VBA代码实现按条件查询数据库--简单实用
开发语言·数据仓库·笔记·excel·数据库开发
喻师傅6 天前
Hive 中 NULL 值在逻辑判断中的“陷阱”(踩坑复盘)
数据仓库·hive·hadoop
涤生大数据6 天前
放弃Canal后,我们用Flink CDC实现了99.99%的数据一致性
大数据·数据仓库·flink·大数据开发·flink cdc·数据开发·实时数据