使用datax通过HbaseShell封装_同步hbase数据到瀚高数据库highgo_踩坑_细节总结---大数据之DataX工作笔记009

复制代码
{
    "job": {
        "setting": {
            "speed": {
                "channel": 3, 
                "byte": 1048576
            }, 
            "errorLimit": {
                "record": 0, 
                "percentage": 0.02
            }
        }, 
        "content": [
            {
                "reader": {
                    "name": "hbase11xreader", 
                    "parameter": {
                        "hbaseConfig": {
                            "hbase.zookeeper.quorum": "172.19.126.120,172.19.126.121,172.19.126.122:2181"
                        }, 
                        "table": "userinfoshell", 
                        "mode": "normal", 
                        "column": [
 	         	{
                               "name": "rowkey", 
                                "type": "string"
                            }, 
                            {
                                "name": "info:addr", 
                                "type": "string"
                            }, 
                            {
                                "name": "info:son_json", 
                                "type": "string"
                            }, 
                            {
                                "name": "info:mobile", 
                                "type": "string"
                            }, 
                            {
                                "name": "info:name", 
                                "type": "string"
                            }, 
                            {
                                "name": "info:email", 
                                "type": "string"
                            }
                        ]
                    }
                }, 
                "writer": {
                    "name": "mysqlwriter", 
                    "parameter": {
                        "username": "0uADFAaASDASDFASDmOA==", 
                        "password": "niVbuSDSESEFSDSdA==", 
                        "column": [
                            "id", 
		    "addr",
                            "son_json", 
                            "mobile", 
                            "name", 
                            "email"
                        ], 
                        "connection": [
                            {
                                "table": [
                                    "dzrb_bigdata_huiju.user_info"
                                ], 
                                "jdbcUrl": "jdbc:highgo://172.19.126.125:5866/datS_bigdata_cloud"
                            }
                        ]
                    }
                }
            }
        ]
    }, 
    "core": {
        "transport": {
            "channel": {
                "speed": {
                    "byte": 1231412
                }
            }
        }
    }
}

给出一个可以运行的json 用来把hbase同步到瀚高的,有了这个json就好多了.

可以看到,对应的,字段对应关系是可以直接对应起来的,不用字段名字一样,就是说,

hbase中写了比如info:name,info:age ,其实对应的瀚高中可以写成column[id,addr]

这样就相当于把name传入到id中,把ageaddr

然后就可以去使用datax-web去跑一下试试了.

相关推荐
武子康7 小时前
大数据-98 Spark 从 DStream 到 Structured Streaming:Spark 实时计算的演进
大数据·后端·spark
阿里云大数据AI技术7 小时前
2025云栖大会·大数据AI参会攻略请查收!
大数据·人工智能
代码匠心10 小时前
从零开始学Flink:数据源
java·大数据·后端·flink
Lx35212 小时前
复杂MapReduce作业设计:多阶段处理的最佳实践
大数据·hadoop
武子康15 小时前
大数据-100 Spark DStream 转换操作全面总结:map、reduceByKey 到 transform 的实战案例
大数据·后端·spark
expect7g16 小时前
Flink KeySelector
大数据·后端·flink
阿里云大数据AI技术1 天前
StarRocks 助力数禾科技构建实时数仓:从数据孤岛到智能决策
大数据
Lx3522 天前
Hadoop数据处理优化:减少Shuffle阶段的性能损耗
大数据·hadoop
武子康2 天前
大数据-99 Spark Streaming 数据源全面总结:原理、应用 文件流、Socket、RDD队列流
大数据·后端·spark
阿里云大数据AI技术2 天前
大数据公有云市场第一,阿里云占比47%!
大数据