CDH6.3.2,不互通的cdh平台互导hive数据

1、先导出所有建表语句,在源CDH服务器命令行输入下面命令,该库下所有建表语句保存至hive目录中的tables.sql文件中,不知道具体路径可以全局搜索一下,拿到源库hive的建表语句后,稍微处理一下,去目标库把表建好。

hive -e "use database; show tables;" | xargs -I '{}' sh -c 'hive -e "use database; show create table '{}';"' > tables.sql

附加:我自己需要导很多个库,所以写了一行python代码可以批量生成用

database = default
cmdstr = '''hive -e "use ''' + database + '''; show tables;" | xargs -I '{}' sh -c 'hive -e "use ''' + database + '''; show create table '{}';"' > ''' + database + '''.sql'''

2、然后再在源CDH服务器命令行输入下面命令,命令的意思就是查询后保存到data文件中

hive -e " select * from database.table;" > data.txt

附加:

1)我用代码生成了一批上面的命令,直接批量复制到终端里面,结果有的执行了,有的没执行,查了下原因,是因为执行的时候会进如hive里面,终端反应比较慢,有一部分字符被粘到hive里面了,所以后来采用了shell脚本的形式。(有需要的可以参考)

#!/bin/bash
result=`hive -e " select * from default.test;" > selectandget1.txt` 
echo "$result"

2)然后又出现一个问题,我直接代码批量生成的shell脚本放到终端里面报错:

./showll.sh: 权限不够

chmod +x example.sh

/bin/bash^M: 坏的解释器: 没有那个文件或目录。这个问题是因为我在windows编辑的脚本,与centos的保存格式LR不一致。在python保存语句加参数 newline='\n'

with open(sql_path+'output/4-3_select_and_save.sh', 'w' ,newline='\n') as f:

3、在目标库中新建不带分区的临时表(因为有分区不能直接导入,如果 没有分区的话可以直接跳过这步,去4步直接导入)

4、将源库中导出的data文件复制到目标库服务器上,然后把文件加载到临时表

load data local inpath '/var/data.txt' overwrite into table database.table_cache ;

5、将临时表数据写到正式表中 ,需要注意的是,select不能直接*,而是要把所有列列出来

insert overwrite table database.table partition (分区列名)  select 列名1,列名2 from database.table__cache;
相关推荐
Data 3172 小时前
Hive数仓操作(十七)
大数据·数据库·数据仓库·hive·hadoop
CHICX122913 小时前
【Hadoop】改一下core-site.xml和hdfs-site.xml配置就可以访问Web UI
xml·大数据·hadoop
极客先躯21 小时前
Hadoop krb5.conf 配置详解
大数据·hadoop·分布式·kerberos·krb5.conf·认证系统
BD_Marathon1 天前
设置hive本地模式
数据仓库·hive·hadoop
Data 3171 天前
Hive数仓操作(十一)
大数据·数据库·数据仓库·hive·hadoop
Data 3171 天前
Hive数仓操作(九)
大数据·数据仓库·hive·hadoop
晚睡早起₍˄·͈༝·͈˄*₎◞ ̑̑1 天前
JavaWeb(二)
java·数据仓库·hive·hadoop·maven
朗朗乾坤.py1 天前
Hadoop HDFS命令操作实例
hadoop·hdfs·npm
杰哥在此1 天前
Python知识点:如何使用Hadoop与Python进行大数据处理
开发语言·hadoop·python·面试·编程
Data 3171 天前
Hive数仓操作(三)
大数据·数据库·数据仓库·hive·hadoop