使用datax通过HbaseShell封装_同步hbase数据到瀚高数据库highgo_踩坑_细节总结---大数据之DataX工作笔记009

复制代码
{
    "job": {
        "setting": {
            "speed": {
                "channel": 3, 
                "byte": 1048576
            }, 
            "errorLimit": {
                "record": 0, 
                "percentage": 0.02
            }
        }, 
        "content": [
            {
                "reader": {
                    "name": "hbase11xreader", 
                    "parameter": {
                        "hbaseConfig": {
                            "hbase.zookeeper.quorum": "172.19.126.120,172.19.126.121,172.19.126.122:2181"
                        }, 
                        "table": "userinfoshell", 
                        "mode": "normal", 
                        "column": [
 	         	{
                               "name": "rowkey", 
                                "type": "string"
                            }, 
                            {
                                "name": "info:addr", 
                                "type": "string"
                            }, 
                            {
                                "name": "info:son_json", 
                                "type": "string"
                            }, 
                            {
                                "name": "info:mobile", 
                                "type": "string"
                            }, 
                            {
                                "name": "info:name", 
                                "type": "string"
                            }, 
                            {
                                "name": "info:email", 
                                "type": "string"
                            }
                        ]
                    }
                }, 
                "writer": {
                    "name": "mysqlwriter", 
                    "parameter": {
                        "username": "0uADFAaASDASDFASDmOA==", 
                        "password": "niVbuSDSESEFSDSdA==", 
                        "column": [
                            "id", 
		    "addr",
                            "son_json", 
                            "mobile", 
                            "name", 
                            "email"
                        ], 
                        "connection": [
                            {
                                "table": [
                                    "dzrb_bigdata_huiju.user_info"
                                ], 
                                "jdbcUrl": "jdbc:highgo://172.19.126.125:5866/datS_bigdata_cloud"
                            }
                        ]
                    }
                }
            }
        ]
    }, 
    "core": {
        "transport": {
            "channel": {
                "speed": {
                    "byte": 1231412
                }
            }
        }
    }
}

给出一个可以运行的json 用来把hbase同步到瀚高的,有了这个json就好多了.

可以看到,对应的,字段对应关系是可以直接对应起来的,不用字段名字一样,就是说,

hbase中写了比如info:name,info:age ,其实对应的瀚高中可以写成column[id,addr]

这样就相当于把name传入到id中,把ageaddr

然后就可以去使用datax-web去跑一下试试了.

相关推荐
字节跳动数据平台7 小时前
代码量减少 70%、GPU 利用率达 95%:火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
得物技术8 小时前
深入剖析Spark UI界面:参数与界面详解|得物技术
大数据·后端·spark
武子康10 小时前
大数据-238 离线数仓 - 广告业务 Hive分析实战:ADS 点击率、购买率与 Top100 排名避坑
大数据·后端·apache hive
武子康1 天前
大数据-237 离线数仓 - Hive 广告业务实战:ODS→DWD 事件解析、广告明细与转化分析落地
大数据·后端·apache hive
大大大大晴天1 天前
Flink生产问题排障-Kryo serializer scala extensions are not available
大数据·flink
武子康3 天前
大数据-236 离线数仓 - 会员指标验证、DataX 导出与广告业务 ODS/DWD/ADS 全流程
大数据·后端·apache hive
武子康4 天前
大数据-235 离线数仓 - 实战:Flume+HDFS+Hive 搭建 ODS/DWD/DWS/ADS 会员分析链路
大数据·后端·apache hive
DianSan_ERP5 天前
电商API接口全链路监控:构建坚不可摧的线上运维防线
大数据·运维·网络·人工智能·git·servlet
够快云库5 天前
能源行业非结构化数据治理实战:从数据沼泽到智能资产
大数据·人工智能·机器学习·企业文件安全
AI周红伟5 天前
周红伟:智能体全栈构建实操:OpenClaw部署+Agent Skills+Seedance+RAG从入门到实战
大数据·人工智能·大模型·智能体