DataX将数据在MySQL和HDFS之间互相迁移

1. 解压( [root@master install]#tar -zxvf datax.tar.gz****)****

2.

  1. 清理插件操作,有助于维护datax配置整洁

cd datax

find plugin/reader/ -type f -name "._*er" | xargs rm -rf

find plugin/writer/ -type f -name "._*er" | xargs rm -rf

3.测试运行datax自带的job.json

root@master datax\]# python bin/datax.py /bigdata/datax/job/job.json ![](https://i-blog.csdnimg.cn/direct/5921c346308d40a2b53edf80f777b800.png) ## 4.将数据从MySQL中导入到HDFS上 MySQL duoduo_db里面的t_roles ![](https://i-blog.csdnimg.cn/direct/cf9dde83c12f4bc5b5e207d5d5db3426.png) /bigdata/datax 目录下面的 新建文件vim mysql_to_hdfs.json 内容写下面 ------------------------------------------------------------------ { "job": { "content": \[ { "reader": { "name": "mysqlreader", "parameter": { "column": \[ "rid", "rname" \], "connection": \[ { "jdbcUrl": \[ "jdbc:mysql://tonymin:3306/duoduo_db" \], "table": \[ "t_roles"

}

],

"password": "Mzp_2022!",

"username": "root"

}

},

"writer": {

"name": "hdfswriter",

"parameter": {

"column": [

{

"name": "rid",

"type": "int"

},

{

"name": "rname",

"type": "string"

}

],

"defaultFS": "hdfs://tonymin:9820",

"fieldDelimiter": "\t",

"fileName": "roles.txt",

"fileType": "text",

"path": "/datax_transfer/",

"writeMode": "append"

}

}

}

],

"setting": {

"speed": {

"channel": "1"

}

}

}

}


里面的"defaultFS": "hdfs://tonymin:9820", 这个端口号可以通过以下命令(关于defaultFS的配置)获得

hdfs getconf -confKey fs.defaultFS

python bin/datax.py mysql_to_hdfs.json

上面这个代码是改了模板获得的。模板是下面这句话获得的

复制代码
python bin/datax.py -r mysqlreader -w hdfswriter

5. 将数据从HDFS上迁移回MySQL

先重新命名文件:

hdfs dfs -mv /roles.txt__4d0639d8_4341_4dc1_95e4_b770be4a946f /roles.txt

再查看roles.txt文件:

hdfs dfs -cat /roles.txt

查看模板

python bin/datax.py -r hdfsreader -w mysqlwriter


{

"job": {

"content": [

{

"reader": {

"name": "hdfsreader",

"parameter": {

"column": ["*"],

"defaultFS": "hdfs://tonymin:9820",

"encoding": "UTF-8",

"fieldDelimiter": "\t",

"fileType": "text",

"path": "/roles.txt"

}

},

"writer": {

"name": "mysqlwriter",

"parameter": {

"column": ["rid","rname"],

"connection": [

{

"jdbcUrl": "jdbc:mysql://tonymin:3306/duoduo_db",

"table": ["t_roles"]

}

],

"password": "Mzp_2022!",

"username": "root",

"writeMode": "insert"

}

}

}

],

"setting": {

"speed": {

"channel": "1"

}

}

}

}


python bin/datax.py hdfs_to_mysql.json

相关推荐
恼书:-(空寄15 小时前
PostgreSQL核心特性与高并发系统落地实践
数据库·postgresql
BU摆烂会噶15 小时前
【LangGraph】线程级持久化深度实战(PostgreSQL + 重放机制)
数据库·人工智能·python·postgresql·langchain
xxjj998a15 小时前
Laravel4.x:PHP开发新纪元
android·数据库
雷工笔记16 小时前
用AI解决SQL语句解析及语法转换问题
数据库·sql
雷工笔记16 小时前
用AI快速解决SQL报错问题1064
数据库·sql
摇滚侠16 小时前
Public Key Retrieval is not allowed
java·数据库·mysql
WL_Aurora16 小时前
Hadoop 通过 Web 界面上传文件到 HDFS 失败解决方案
hadoop·hdfs
计算机学姐16 小时前
基于微信小程序的宠物服务系统【uniapp+springboot+vue】
java·vue.js·spring boot·mysql·微信小程序·uni-app·宠物
猫的玖月16 小时前
(四)SQL-DDL
数据库·sql·oracle
冷小鱼16 小时前
Redis 技术全景解析:从缓存基石到 AI 时代的数据引擎
数据库·redis·缓存