使用etl工具kettle的日常踩坑梳理之二、从Hadoop中导出数据

想操作MySQL等关系型数据库的可以访问我上一篇文章,本章主要介绍操作Hadoop等大数据组件。

根据2024年11月份测试了kettle工具在9.3及以上版本已经没有内置连接大数据(如Hadoop)组件了。

建议安装9.2及以下的,我这里送上8.3.0版本的请用百度网盘下载
链接:https://pan.baidu.com/s/1INRChuepogd332b81fC32w?pwd=4ll9
提取码:4ll9

然后还需要注意的是Java版本不能过高,要不然也会出现异常,我使用Java8没问题。

1、如果是在win系统中使用就点击.bat文件,然后如果是在linux中就运行.sh文件

2、进入后应该看到这个页面,然后点击文件->新建->转换

3、我现在想把hive中某一张表的数据导出来,就先点击输入下面的表输入,输出就是用什么格式的文件存储,比如我想用csv存储就选择这个文本文件输出。(其实就是数据从哪里来就选择输入,到哪里去就输出)

4、点击新建,配置好数据库连接信息,如果你配置了无须用正确的用户名和密码访问就还需要进入选项配置auth=noSasl

可以测试一下连接是不是正常可以使用,别忘记保存哟

5、点击这个获取sql查询语句选择你需要导出的是哪张表的数据,字段可以自定义。然后保存

6、然后点击导出的csv进行简单的配置,比如保存的目录文件名称,设置分隔符,编码格式等(点击浏览可以设置)。

7、然后按住shift键别动,用鼠标把两个拉起来,然后点击那个三角形启动,然后会弹出导出的过程

显示转换完成就可以去你刚才保存的目录下看了,导入的流程也是一样,只不过输入输出顺序填好

相关推荐
BYSJMG5 小时前
计算机大数据毕业设计推荐:基于Hadoop+Spark的食物口味差异分析可视化系统【源码+文档+调试】
大数据·hadoop·分布式·python·spark·django·课程设计
计算机毕设-小月哥13 小时前
完整源码+技术文档!基于Hadoop+Spark的鲍鱼生理特征大数据分析系统免费分享
大数据·hadoop·spark·numpy·pandas·计算机毕业设计
苛子1 天前
iPaaS、ETL、数据集成平台是什么?三者是什么关系?
数据仓库·etl
zhang98800001 天前
储能领域大数据平台的设计中如何使用 Hadoop、Spark、Flink 等组件实现数据采集、清洗、存储及实时 / 离线计算,支持储能系统分析与预测
大数据·hadoop·spark
Lx3521 天前
Hadoop日志分析实战:快速定位问题的技巧
大数据·hadoop
喂完待续1 天前
【Tech Arch】Hive技术解析:大数据仓库的SQL桥梁
大数据·数据仓库·hive·hadoop·sql·apache
最初的↘那颗心2 天前
Flink Stream API 源码走读 - window 和 sum
大数据·hadoop·flink·源码·实时计算·窗口函数
喂完待续2 天前
Apache Hudi:数据湖的实时革命
大数据·数据仓库·分布式·架构·apache·数据库架构
计艺回忆路2 天前
从Podman开始一步步构建Hadoop开发集群
hadoop
RestCloud3 天前
ETLCloud批流一体化体现在哪
etl