DataX将数据在MySQL和HDFS之间互相迁移

1. 解压( [root@master install]#tar -zxvf datax.tar.gz****)****

2.

  1. 清理插件操作,有助于维护datax配置整洁

cd datax

find plugin/reader/ -type f -name "._*er" | xargs rm -rf

find plugin/writer/ -type f -name "._*er" | xargs rm -rf

3.测试运行datax自带的job.json

root@master datax\]# python bin/datax.py /bigdata/datax/job/job.json ![](https://i-blog.csdnimg.cn/direct/5921c346308d40a2b53edf80f777b800.png) ## 4.将数据从MySQL中导入到HDFS上 MySQL duoduo_db里面的t_roles ![](https://i-blog.csdnimg.cn/direct/cf9dde83c12f4bc5b5e207d5d5db3426.png) /bigdata/datax 目录下面的 新建文件vim mysql_to_hdfs.json 内容写下面 ------------------------------------------------------------------ { "job": { "content": \[ { "reader": { "name": "mysqlreader", "parameter": { "column": \[ "rid", "rname" \], "connection": \[ { "jdbcUrl": \[ "jdbc:mysql://tonymin:3306/duoduo_db" \], "table": \[ "t_roles"

}

],

"password": "Mzp_2022!",

"username": "root"

}

},

"writer": {

"name": "hdfswriter",

"parameter": {

"column": [

{

"name": "rid",

"type": "int"

},

{

"name": "rname",

"type": "string"

}

],

"defaultFS": "hdfs://tonymin:9820",

"fieldDelimiter": "\t",

"fileName": "roles.txt",

"fileType": "text",

"path": "/datax_transfer/",

"writeMode": "append"

}

}

}

],

"setting": {

"speed": {

"channel": "1"

}

}

}

}


里面的"defaultFS": "hdfs://tonymin:9820", 这个端口号可以通过以下命令(关于defaultFS的配置)获得

hdfs getconf -confKey fs.defaultFS

python bin/datax.py mysql_to_hdfs.json

上面这个代码是改了模板获得的。模板是下面这句话获得的

复制代码
python bin/datax.py -r mysqlreader -w hdfswriter

5. 将数据从HDFS上迁移回MySQL

先重新命名文件:

hdfs dfs -mv /roles.txt__4d0639d8_4341_4dc1_95e4_b770be4a946f /roles.txt

再查看roles.txt文件:

hdfs dfs -cat /roles.txt

查看模板

python bin/datax.py -r hdfsreader -w mysqlwriter


{

"job": {

"content": [

{

"reader": {

"name": "hdfsreader",

"parameter": {

"column": ["*"],

"defaultFS": "hdfs://tonymin:9820",

"encoding": "UTF-8",

"fieldDelimiter": "\t",

"fileType": "text",

"path": "/roles.txt"

}

},

"writer": {

"name": "mysqlwriter",

"parameter": {

"column": ["rid","rname"],

"connection": [

{

"jdbcUrl": "jdbc:mysql://tonymin:3306/duoduo_db",

"table": ["t_roles"]

}

],

"password": "Mzp_2022!",

"username": "root",

"writeMode": "insert"

}

}

}

],

"setting": {

"speed": {

"channel": "1"

}

}

}

}


python bin/datax.py hdfs_to_mysql.json

相关推荐
GentleDevin12 分钟前
Redis服务常用命令
数据库·oracle
難釋懷18 分钟前
Redis分片集群手动故障转移
数据库·redis·缓存
无名-CODING24 分钟前
从零开始!Vue3+SpringBoot前后端分离项目Docker部署实战(上):环境搭建与数据库容器化
数据库·spring boot·docker
Bdygsl36 分钟前
MySQL(2)—— CRUD
数据库·mysql
chushiyunen41 分钟前
python edge-tts实现tts文本转语音、音频
数据库·python·音视频
原来是猿1 小时前
MySQL【事务中 - 事务的隔离级别】
数据库·mysql
2501_945423541 小时前
游戏与图形界面(GUI)
jvm·数据库·python
大傻^1 小时前
Spring AI Alibaba Agent开发:基于ChatClient的智能体构建模式
java·数据库·人工智能·后端·spring·springaialibaba
爬山算法1 小时前
MongoDB(50)副本集中的角色有哪些?
数据库·mongodb
大傻^1 小时前
Spring AI Alibaba 向量数据库集成:Milvus与Elasticsearch配置详解
数据库·人工智能·spring·elasticsearch·milvus·springai·springaialibaba