datax的安装及使用入门

1 下载解压Datax tar包

下载到自己指定的安装目录

#wget http://datax-opensource.oss-cn-hangzhou.aliyuncs.com/datax.tar.gz

进行解压

tar -zxvf datax.tar.gz

2 Datax验证

#修改datax/bin目录下datax.py的权限

chmod 777 datax/bin/datax.py

2.1运行官方给定的任务案例

cd $DATAX_HOME

bin/datax.py job/job.json

任务执行成功

2.2编写个人任务案例

需求:读取 MySQL 中的数据存放到 HDFS

2.2.1准备数据

登录MySQL创建student表,并插入数据

mysql -u root -p

mysql> use test;

mysql> > create table student(id int,name varchar(20));

mysql> insert into student values(1001,'zhangsan'),(1002,'lisi'),(1003,'wangwu');

2.2.2查看官方配置文件模板

python $DATAX_HOME /bin/datax.py -r mysqlreader -w hdfswriter

2.2.3编写配置文件

vim $DATAX_HOME /job/mysqlhdfs.json

{ "job": { "content": [ { "reader": { "name": "mysqlreader", "parameter": { "column": [ "id", "name" ], "connection": [ { "jdbcUrl": [ "jdbc:mysql://node1:3306/test" ], "table": [ "student" ] } ], "username": "root", "password": "1234" } }, "writer": { "name": "hdfswriter", "parameter": { "column": [ { "name": "id", "type": "int" }, { "name": "name", "type": "string" } ], "defaultFS": "hdfs://node1:8020", "fieldDelimiter": "\t", "fileName": "student.txt", "fileType": "text", "path": "/", "writeMode": "append" } } } ], "setting": { "speed": { "channel": "1" } } }

2.2.4执行任务

cd $DATAX_HOME

bin/datax.py job/mysqlhdfs.json

任务执行成功

查看 hdfs

相关推荐
武子康11 小时前
大数据-98 Spark 从 DStream 到 Structured Streaming:Spark 实时计算的演进
大数据·后端·spark
阿里云大数据AI技术11 小时前
2025云栖大会·大数据AI参会攻略请查收!
大数据·人工智能
代码匠心13 小时前
从零开始学Flink:数据源
java·大数据·后端·flink
Lx35216 小时前
复杂MapReduce作业设计:多阶段处理的最佳实践
大数据·hadoop
武子康19 小时前
大数据-100 Spark DStream 转换操作全面总结:map、reduceByKey 到 transform 的实战案例
大数据·后端·spark
expect7g20 小时前
Flink KeySelector
大数据·后端·flink
阿里云大数据AI技术1 天前
StarRocks 助力数禾科技构建实时数仓:从数据孤岛到智能决策
大数据
Lx3522 天前
Hadoop数据处理优化:减少Shuffle阶段的性能损耗
大数据·hadoop
武子康2 天前
大数据-99 Spark Streaming 数据源全面总结:原理、应用 文件流、Socket、RDD队列流
大数据·后端·spark
阿里云大数据AI技术2 天前
大数据公有云市场第一,阿里云占比47%!
大数据