Apache Hadoop生态组件部署分享-Sqoop

zookeeper: Apache Hadoop生态组件部署分享-zookeeper

hadoop:Apache Hadoop生态组件部署分享-Hadoop

hive: Apache Hadoop生态组件部署分享-Hive

hbase: Apache Hadoop生态组件部署分享-Hbase

impala:Apache Hadoop生态组件部署分享-Impala

spark: Apache Hadoop生态组件部署分享-Spark

下载地址: https://archive.apache.org/dist/sqoop/

1、上传压缩包并解压

apache 复制代码
tar -xf sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz -C /opt/apache/

2、将mysql驱动包放置在其lib下

apache 复制代码
cp /opt/softs/mysql-connector-java-5.1.47.jar /opt/apache/sqoop-1.4.7.bin__hadoop-2.6.0/lib

3、配置SQOOP环境

bash 复制代码
export SQOOP_HOME=/opt/apache/sqoop-1.4.7.bin__hadoop-2.6.0export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$ZOOKEEPER_HOME/bin:$HIVE_HOME/bin:$HBASE_HOME/bin:${SQOOP_HOME}/bin

4、验证使用

cs 复制代码
[root@apache230 ~]# sqoop list-databases --connect jdbc:mysql://apache230.hadoop.com:3306/ --username root --password 123456

5、验证抽取数据

mysql数据准备

sql 复制代码
create table test.testsqoopb(name VARCHAR(100)) DEFAULT CHARSET=utf8;
INSERT INTO test.testsqoopb (name)  VALUES ('john_doe');INSERT INTO test.testsqoopb (name)  VALUES ('张三');
直接抽取到HDFS上
cpp 复制代码
sqoop import \--connect jdbc:mysql://apache230.hadoop.com:3306/test \--username root \--password 123456 \--table testsqoopb \--target-dir /test/sqoop/test_sqoop \--delete-target-dir \--fields-terminated-by "\t" \--num-mappers 1 
注: 如果要多个map执行,则需要加--split-by 字段
查看验证
直接抽取到HIVE中
apache 复制代码
sqoop import \--connect jdbc:mysql://apache230.hadoop.com:3306/test \--username root \--password 123456 \--table testsqoopb \--num-mappers 1 \--delete-target-dir \--hive-import \--fields-terminated-by "\t" \--hive-overwrite \--hive-table test_sqoop
抽取到hbase
apache 复制代码
sqoop import \--connect jdbc:mysql://apache230.hadoop.com:3306/test \--username root \--password 123456 \--table sqoophbase \--hbase-create-table \--hbase-row-key "name" \--hbase-table "test_sqoopb" \--column-family "info" \--num-mappers 1 \--split-by id
当前遇到问题,后续再看,版本兼容问题
6、导出数据到mysql
apache 复制代码
sqoop export \--connect 'jdbc:mysql://apache230.hadoop.com:3306/test?useUnicode=true&characterEncoding=utf-8' \--username root \--password 123456 \--table testsqoopb \--num-mappers 1 \--export-dir /warehouse/hive/warehouse/test_sqoop \--input-fields-terminated-by "\t"

验证查看

相关推荐
脸大是真的好~1 小时前
尚硅谷-Kafka01-介绍-安装-ZK和Broker工具-Kafka系统架构-启动和竞争管理者controller
分布式·kafka·系统架构
沧海寄馀生1 小时前
Apache Hadoop生态组件部署分享-Ranger
大数据·hadoop·分布式·apache
juma90027 小时前
反激式开关电源设计全解析:从理论到实操
hadoop
ganshenml11 小时前
【GIT】Git 本地无法识别远程分支的原因与解决方法 not a valid ref
大数据·git·elasticsearch
火山引擎开发者社区12 小时前
DeepSeek-V3.2正式登陆火山方舟
大数据·人工智能
jqpwxt12 小时前
启点创新山水景区智慧旅游SAAS平台,智慧景区售检票系统,景区门票管理系统
大数据·旅游
嘻哈baby13 小时前
接口幂等性设计实战|防止重复提交的几种方案
分布式·环境测试
陀螺财经13 小时前
加密热潮“席卷”美国军界
大数据·人工智能·区块链
打码人的日常分享14 小时前
智慧城市一网统管建设方案,新型城市整体建设方案(PPT)
大数据·运维·服务器·人工智能·信息可视化·智慧城市