Hadoop生态圈框架部署 伪集群版(八)- Sqoop安装与配置

文章目录

  • 前言
  • 一、Sqoop安装与配置(手动安装配置)
    • [1. 下载Sqoop](#1. 下载Sqoop)
    • [2. 解压Sqoop安装包](#2. 解压Sqoop安装包)
      • [2.1 解压](#2.1 解压)
      • [2.2 重命名](#2.2 重命名)
    • [3. 配置Sqoop](#3. 配置Sqoop)
      • [3.1 配置Sqoop环境变量](#3.1 配置Sqoop环境变量)
      • [3.2 修改 sqoop-env.sh 配置文件](#3.2 修改 sqoop-env.sh 配置文件)
      • [3.3 配置jar包](#3.3 配置jar包)
        • [3.3.1 配置MySQL驱动jar包](#3.3.1 配置MySQL驱动jar包)
        • [3.3.2 配置commons-lang-2.6.jar包](#3.3.2 配置commons-lang-2.6.jar包)
    • [4. 测试Sqoop](#4. 测试Sqoop)

前言

随着大数据技术的迅猛发展,数据在不同系统之间的迁移和整合成为了企业级应用中的常见需求。Hadoop作为处理大规模数据集的开源框架,提供了强大的分布式计算能力,而关系型数据库(如MySQL)则因其事务处理能力和结构化查询语言(SQL)的支持,在数据管理和分析中占据着不可替代的位置。然而,如何高效地在Hadoop与传统关系型数据库之间进行数据传输,成为了众多开发者和企业面临的挑战。

Apache Sqoop正是为了解决这一问题而诞生的工具。作为一个专门用于在Hadoop和关系型数据库之间传输数据的命令行工具,Sqoop不仅支持将关系型数据库中的数据导入到Hadoop的HDFS、Hive或HBase中,也能够从Hadoop导出数据至关系型数据库。通过提供高效的批量数据加载机制,Sqoop大大简化了数据迁移过程,并提升了操作效率。

本指南旨在为读者提供一份详尽的Sqoop安装与配置教程,帮助大家顺利地在自己的环境中部署并使用Sqoop。我们将一步步指导您完成从下载、解压到环境变量配置以及最终测试的所有步骤,确保您能够在最短的时间内上手使用这个强大的数据迁移工具。


一、Sqoop安装与配置(手动安装配置)

1. 下载Sqoop

执行如下命令下载Sqoop的安装包sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz到/export/software目录。

shell 复制代码
wget https://repo.huaweicloud.com:8443/artifactory/apache-local/sqoop/1.4.7/sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz -P /export/software

2. 解压Sqoop安装包

2.1 解压

将Sqoop安装包通过解压方式安装至/export/servers目录。

shell 复制代码
tar -zxvf /export/software/sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz -C /export/servers/

解压完成如下图所示。

2.2 重命名

执行如下命令将sqoop-1.4.7.bin__hadoop-2.6.0重命名为sqoop-1.4.7。

shell 复制代码
mv /export/servers/sqoop-1.4.7.bin__hadoop-2.6.0 /export/servers/sqoop-1.4.7

3. 配置Sqoop

3.1 配置Sqoop环境变量

执行如下命令设置Sqoop环境变量,加载系统环境变量配置文件,并查看环境变量是否配置成功。

shell 复制代码
echo >> /etc/profile
echo 'export SQOOP_HOME=/export/servers/sqoop-1.4.7' >> /etc/profile
echo 'export PATH=$PATH:$SQOOP_HOME/bin' >> /etc/profile
source /etc/profile
echo $SQOOP_HOME

3.2 修改 sqoop-env.sh 配置文件

使用cat命令把配置内容重定向并写入到 /export/servers/sqoop-1.4.7/conf/sqoop-env.sh 文件。

shell 复制代码
cat >/export/servers/sqoop-1.4.7/conf/sqoop-env.sh <<EOF
export HADOOP_COMMON_HOME=\$HADOOP_HOME
export HADOOP_MAPRED_HOME=\$HADOOP_HOME
export HBASE_HOME=\$HBASE_HOME
export HIVE_HOME=\$HIVE_HOME
export ZOOCFGDIR=\$ZK_HOME/conf
export ZOOKEEPER_HOME=\$ZK_HOME
export HCAT_HOME=\$HCAT_HOME
export ACCUMULO_HOME=\$ACCUMULO_HOME
EOF

3.3 配置jar包

3.3.1 配置MySQL驱动jar包

执行如下命令下载MySQL驱动包到/export/servers/sqoop-1.4.7/lib目录下。

shell 复制代码
wget https://repo1.maven.org/maven2/mysql/mysql-connector-java/8.0.30/mysql-connector-java-8.0.30.jar -P /export/servers/sqoop-1.4.7/lib
3.3.2 配置commons-lang-2.6.jar包

执行如下命令下载commons-lang-2.6.jar包到/export/servers/sqoop-1.4.7/lib目录下。

shell 复制代码
wget https://repo.maven.apache.org/maven2/commons-lang/commons-lang/2.6/commons-lang-2.6.jar -P /export/servers/sqoop-1.4.7/lib

4. 测试Sqoop

执行如下命令使用Sqoop查询MySQL中的所有数据库。

shell 复制代码
sqoop list-databases --connect jdbc:mysql://hadoop:3306/?allowPublicKeyRetrieval=true --username root --password 123456
相关推荐
诗旸的技术记录与分享3 小时前
Flink-1.19.0源码详解-番外补充3-StreamGraph图
大数据·flink
资讯分享周3 小时前
Alpha系统联结大数据、GPT两大功能,助力律所管理降本增效
大数据·gpt
G皮T4 小时前
【Elasticsearch】深度分页及其替代方案
大数据·elasticsearch·搜索引擎·scroll·检索·深度分页·search_after
TDengine (老段)5 小时前
TDengine STMT2 API 使用指南
java·大数据·物联网·时序数据库·iot·tdengine·涛思数据
用户Taobaoapi20146 小时前
母婴用品社媒种草效果量化:淘宝详情API+私域转化追踪案例
大数据·数据挖掘·数据分析
G皮T7 小时前
【Elasticsearch】检索排序 & 分页
大数据·elasticsearch·搜索引擎·排序·分页·检索·深度分页
无级程序员8 小时前
hive2服务启动报错:/tmp/hive on HDFS should be writable(不是chmod 777能解决的)
hive·hadoop·hdfs
小新学习屋10 小时前
Spark从入门到熟悉(篇三)
大数据·分布式·spark
rui锐rui11 小时前
大数据学习2:HIve
大数据·hive·学习
G皮T11 小时前
【Elasticsearch】检索高亮
大数据·elasticsearch·搜索引擎·全文检索·kibana·检索·高亮