sqoop的导入导出

一、导入

1、数据全量抽取

现在要将qfdb中的表抽取到hive的aa库里面

注意:如果是其他的关系型数据库抽取到hive数据库中,不需要新建表格,hive会自动的创建表格,oracle表名要大写

复制代码
-----连接MySQL
sqoop import \
--hive-import \
--connect jdbc:mysql://192.168.1.27:3306/qfdb \
--username root \
--password 123456 \
--table emp \
--hive-database aa \
--fields-terminated-by ',' -m 1


-----连接Oracle
sqoop import \
--hive-import \
--connect jdbc:oracle:thin:@192.168.1.27:1521/ORCL \
--username scott \
--password 123456 \
--table  EMP \
--hive-database sp \
--fields-terminated-by ',' -m 1

出现这个就代表执行成功了

{{--提示报错

如果出现这个错--Output directory hdfs://localhost:9000/user/root/emp already exists

需要把这个文件删除:hdfs dfs -rm -r /user/root/emp

出现这个报错的原因是:假如导入的来源表之前用过,会在root产生新的文件夹,再次使用会报 错,需要把这个文件夹删除

删除之后再次执行sqoop指令:

或者在导入的时候加上删除目录的语句(--delete-target-dir # 自动删除已存在的目录)

复制代码
sqoop import \
--hive-import \
--connect jdbc:mysql://192.168.1.27:3306/qfdb \
--username root \
--password 123456 \
--delete-target-dir \
--table emp \
--hive-database aa \
--fields-terminated-by ',' -m 1

--}}

2、数据增量抽取

现在有一个目标表zl,里面有三条数据,empno是主键,还有一个来源表emp,有14条数据,现在要将emp的数据增量抽取到zl中;

现在emp中最大的empno是7934,zl中empno分别为7888/7988/7966,由于sqoop的last-value设置的值为7934,因此按照增量抽取,所以只抽取满足条件的两条数据7988和7966

复制代码
sqoop import \
--incremental append \
--connect jdbc:mysql://192.168.100.132:3306/qfdb \
--username root \
--password 123456 \
--table zl \
--target-dir /user/hive/warehouse/aa.db/emp \
--fields-terminated-by ',' \
--check-column empno \
--last-value 7934  -m 1

抽取结果:

3、进行表格的合并导入

现在要将表z1和z2合并到hive中的表z3

首先将z1中的数据全量抽取到hive中,再将z2中的数据追加抽取到hive中

复制代码
------第一步,全量抽取z1
sqoop import \
--hive-import \
--connect jdbc:mysql://192.168.100.132:3306/qfdb \
--username root \
--password 123456 \
--delete-target-dir \
--table z1 \
--hive-database aa \
--fields-terminated-by ',' -m 1


-------第二步,追加抽取z2
sqoop  import \
--append  \
--connect jdbc:mysql://192.168.100.132:3306/qfdb \
--username root \
--password 123456 \
--table z2 \
--target-dir /user/hive/warehouse/aa.db/z1 \
--fields-terminated-by ',' -m 1

4、分区表数据导入

1)在hive端新建一个分区表格,通过sqoop指令,将数据导入到分区表中

复制代码
----创建一个分区表emp2
CREATE TABLE aa.emp2(
empno int, 
ename string, 
job string, 
mgr int, 
hiredate string, 
sal float, 
comm float,
deptno int
)
partitioned by(y int)
row format delimited fields terminated by ',';

2)在hive的分区表中,新增一个分区的文件夹

alter table emp2_part add partition(y=1)

3)导入

复制代码
sqoop import \
--hive-import \
--connect jdbc:mysql://192.168.100.132:3306/qfdb \
--username root \
--password 123456 \
--delete-target-dir \
--table emp \
--hive-database aa \
--hive-table emp2 \
--hive-partition-key y \
--hive-partition-value 1 \
--fields-terminated-by ',' -m 1
相关推荐
武子康2 天前
大数据-264 实时数仓-MySQL Binlog配置详解:从原理到实践|数据恢复与主从复制实战
大数据·hadoop·后端
武子康2 天前
大数据-265 实时数仓-Canal MySQL Binlog配置详解:从原理到实践|数据恢复与主从复制实战
大数据·hadoop·后端
晓纪同学2 天前
WPF-03 第一个WPF程序
大数据·hadoop·wpf
xiaoyaohou112 天前
024、大数据技术栈概览:Hadoop、Spark与Flink
大数据·hadoop·spark
虚幻如影2 天前
Hive 中“STRING类型无需显式指定长度
数据仓库·hive·hadoop
仗剑_走天涯3 天前
hadoop reduce阶段 对象重用问题
大数据·hadoop·分布式
仗剑_走天涯3 天前
hadoop 中 yarn node -list 显示0 问题解决
大数据·hadoop·分布式
武子康4 天前
大数据-263 实时数仓-Canal 增量订阅与消费原理:MySQL Binlog 数据同步实践
大数据·hadoop·后端
仗剑_走天涯4 天前
zookeeper 安装与配置
hadoop·zookeeper
zhixingheyi_tian4 天前
hdfs.c 之解析
c语言·hadoop·hdfs