Apache Hadoop生态组件部署分享-Sqoop

zookeeper: Apache Hadoop生态组件部署分享-zookeeper

hadoop:Apache Hadoop生态组件部署分享-Hadoop

hive: Apache Hadoop生态组件部署分享-Hive

hbase: Apache Hadoop生态组件部署分享-Hbase

impala:Apache Hadoop生态组件部署分享-Impala

spark: Apache Hadoop生态组件部署分享-Spark

下载地址: https://archive.apache.org/dist/sqoop/

1、上传压缩包并解压

apache 复制代码
tar -xf sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz -C /opt/apache/

2、将mysql驱动包放置在其lib下

apache 复制代码
cp /opt/softs/mysql-connector-java-5.1.47.jar /opt/apache/sqoop-1.4.7.bin__hadoop-2.6.0/lib

3、配置SQOOP环境

bash 复制代码
export SQOOP_HOME=/opt/apache/sqoop-1.4.7.bin__hadoop-2.6.0export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$ZOOKEEPER_HOME/bin:$HIVE_HOME/bin:$HBASE_HOME/bin:${SQOOP_HOME}/bin

4、验证使用

cs 复制代码
[root@apache230 ~]# sqoop list-databases --connect jdbc:mysql://apache230.hadoop.com:3306/ --username root --password 123456

5、验证抽取数据

mysql数据准备

sql 复制代码
create table test.testsqoopb(name VARCHAR(100)) DEFAULT CHARSET=utf8;
INSERT INTO test.testsqoopb (name)  VALUES ('john_doe');INSERT INTO test.testsqoopb (name)  VALUES ('张三');
直接抽取到HDFS上
cpp 复制代码
sqoop import \--connect jdbc:mysql://apache230.hadoop.com:3306/test \--username root \--password 123456 \--table testsqoopb \--target-dir /test/sqoop/test_sqoop \--delete-target-dir \--fields-terminated-by "\t" \--num-mappers 1 
注: 如果要多个map执行,则需要加--split-by 字段
查看验证
直接抽取到HIVE中
apache 复制代码
sqoop import \--connect jdbc:mysql://apache230.hadoop.com:3306/test \--username root \--password 123456 \--table testsqoopb \--num-mappers 1 \--delete-target-dir \--hive-import \--fields-terminated-by "\t" \--hive-overwrite \--hive-table test_sqoop
抽取到hbase
apache 复制代码
sqoop import \--connect jdbc:mysql://apache230.hadoop.com:3306/test \--username root \--password 123456 \--table sqoophbase \--hbase-create-table \--hbase-row-key "name" \--hbase-table "test_sqoopb" \--column-family "info" \--num-mappers 1 \--split-by id
当前遇到问题,后续再看,版本兼容问题
6、导出数据到mysql
apache 复制代码
sqoop export \--connect 'jdbc:mysql://apache230.hadoop.com:3306/test?useUnicode=true&characterEncoding=utf-8' \--username root \--password 123456 \--table testsqoopb \--num-mappers 1 \--export-dir /warehouse/hive/warehouse/test_sqoop \--input-fields-terminated-by "\t"

验证查看

相关推荐
skywalk816310 小时前
关于创建中文编程语言及自然语言转MoonBit的整合分析报告
大数据·人工智能
阿标在干嘛10 小时前
使用科力辰app与依赖传统渠道获取科技业务信息的效率差
大数据·人工智能·科技
newsxun10 小时前
首都现代物流骨干网络体系正式启动
大数据·人工智能
是阿威啊10 小时前
【第二站】本地hadoop集群配置yarn模式
大数据·linux·hadoop·yarn
程序员阿鹏10 小时前
分布式事务管理
java·开发语言·分布式
RUZHUA11 小时前
六年深耕,稳定币重塑支付未来:从Libra震荡到全球贸易革新
大数据
wenzhangli711 小时前
如何评价钉钉AI1.1新品发布会?垂直战略背后的内耗与垄断隐忧
大数据·人工智能
物流可信数据空间11 小时前
可信数据空间提供新机遇,农业数字发展带来新希望
大数据
virtual_k1smet11 小时前
梧桐·鸿鹄-大数据professional
大数据·笔记