Hadoop生态圈框架部署 伪集群版(八)- Sqoop安装与配置

文章目录

  • 前言
  • 一、Sqoop安装与配置(手动安装配置)
    • [1. 下载Sqoop](#1. 下载Sqoop)
    • [2. 解压Sqoop安装包](#2. 解压Sqoop安装包)
      • [2.1 解压](#2.1 解压)
      • [2.2 重命名](#2.2 重命名)
    • [3. 配置Sqoop](#3. 配置Sqoop)
      • [3.1 配置Sqoop环境变量](#3.1 配置Sqoop环境变量)
      • [3.2 修改 sqoop-env.sh 配置文件](#3.2 修改 sqoop-env.sh 配置文件)
      • [3.3 配置jar包](#3.3 配置jar包)
        • [3.3.1 配置MySQL驱动jar包](#3.3.1 配置MySQL驱动jar包)
        • [3.3.2 配置commons-lang-2.6.jar包](#3.3.2 配置commons-lang-2.6.jar包)
    • [4. 测试Sqoop](#4. 测试Sqoop)

前言

随着大数据技术的迅猛发展,数据在不同系统之间的迁移和整合成为了企业级应用中的常见需求。Hadoop作为处理大规模数据集的开源框架,提供了强大的分布式计算能力,而关系型数据库(如MySQL)则因其事务处理能力和结构化查询语言(SQL)的支持,在数据管理和分析中占据着不可替代的位置。然而,如何高效地在Hadoop与传统关系型数据库之间进行数据传输,成为了众多开发者和企业面临的挑战。

Apache Sqoop正是为了解决这一问题而诞生的工具。作为一个专门用于在Hadoop和关系型数据库之间传输数据的命令行工具,Sqoop不仅支持将关系型数据库中的数据导入到Hadoop的HDFS、Hive或HBase中,也能够从Hadoop导出数据至关系型数据库。通过提供高效的批量数据加载机制,Sqoop大大简化了数据迁移过程,并提升了操作效率。

本指南旨在为读者提供一份详尽的Sqoop安装与配置教程,帮助大家顺利地在自己的环境中部署并使用Sqoop。我们将一步步指导您完成从下载、解压到环境变量配置以及最终测试的所有步骤,确保您能够在最短的时间内上手使用这个强大的数据迁移工具。


一、Sqoop安装与配置(手动安装配置)

1. 下载Sqoop

执行如下命令下载Sqoop的安装包sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz到/export/software目录。

shell 复制代码
wget https://repo.huaweicloud.com:8443/artifactory/apache-local/sqoop/1.4.7/sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz -P /export/software

2. 解压Sqoop安装包

2.1 解压

将Sqoop安装包通过解压方式安装至/export/servers目录。

shell 复制代码
tar -zxvf /export/software/sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz -C /export/servers/

解压完成如下图所示。

2.2 重命名

执行如下命令将sqoop-1.4.7.bin__hadoop-2.6.0重命名为sqoop-1.4.7。

shell 复制代码
mv /export/servers/sqoop-1.4.7.bin__hadoop-2.6.0 /export/servers/sqoop-1.4.7

3. 配置Sqoop

3.1 配置Sqoop环境变量

执行如下命令设置Sqoop环境变量,加载系统环境变量配置文件,并查看环境变量是否配置成功。

shell 复制代码
echo >> /etc/profile
echo 'export SQOOP_HOME=/export/servers/sqoop-1.4.7' >> /etc/profile
echo 'export PATH=$PATH:$SQOOP_HOME/bin' >> /etc/profile
source /etc/profile
echo $SQOOP_HOME

3.2 修改 sqoop-env.sh 配置文件

使用cat命令把配置内容重定向并写入到 /export/servers/sqoop-1.4.7/conf/sqoop-env.sh 文件。

shell 复制代码
cat >/export/servers/sqoop-1.4.7/conf/sqoop-env.sh <<EOF
export HADOOP_COMMON_HOME=\$HADOOP_HOME
export HADOOP_MAPRED_HOME=\$HADOOP_HOME
export HBASE_HOME=\$HBASE_HOME
export HIVE_HOME=\$HIVE_HOME
export ZOOCFGDIR=\$ZK_HOME/conf
export ZOOKEEPER_HOME=\$ZK_HOME
export HCAT_HOME=\$HCAT_HOME
export ACCUMULO_HOME=\$ACCUMULO_HOME
EOF

3.3 配置jar包

3.3.1 配置MySQL驱动jar包

执行如下命令下载MySQL驱动包到/export/servers/sqoop-1.4.7/lib目录下。

shell 复制代码
wget https://repo1.maven.org/maven2/mysql/mysql-connector-java/8.0.30/mysql-connector-java-8.0.30.jar -P /export/servers/sqoop-1.4.7/lib
3.3.2 配置commons-lang-2.6.jar包

执行如下命令下载commons-lang-2.6.jar包到/export/servers/sqoop-1.4.7/lib目录下。

shell 复制代码
wget https://repo.maven.apache.org/maven2/commons-lang/commons-lang/2.6/commons-lang-2.6.jar -P /export/servers/sqoop-1.4.7/lib

4. 测试Sqoop

执行如下命令使用Sqoop查询MySQL中的所有数据库。

shell 复制代码
sqoop list-databases --connect jdbc:mysql://hadoop:3306/?allowPublicKeyRetrieval=true --username root --password 123456
相关推荐
武子康2 小时前
大数据-241 离线数仓 - 实战:电商核心交易数据模型与 MySQL 源表设计(订单/商品/品类/店铺/支付)
大数据·后端·mysql
IvanCodes2 小时前
一、消息队列理论基础与Kafka架构价值解析
大数据·后端·kafka
武子康1 天前
大数据-240 离线数仓 - 广告业务 Hive ADS 实战:DataX 将 HDFS 分区表导出到 MySQL
大数据·后端·apache hive
字节跳动数据平台2 天前
5000 字技术向拆解 | 火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
武子康2 天前
大数据-239 离线数仓 - 广告业务实战:Flume 导入日志到 HDFS,并完成 Hive ODS/DWD 分层加载
大数据·后端·apache hive
字节跳动数据平台3 天前
代码量减少 70%、GPU 利用率达 95%:火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
得物技术3 天前
深入剖析Spark UI界面:参数与界面详解|得物技术
大数据·后端·spark
武子康3 天前
大数据-238 离线数仓 - 广告业务 Hive分析实战:ADS 点击率、购买率与 Top100 排名避坑
大数据·后端·apache hive
武子康4 天前
大数据-237 离线数仓 - Hive 广告业务实战:ODS→DWD 事件解析、广告明细与转化分析落地
大数据·后端·apache hive
大大大大晴天4 天前
Flink生产问题排障-Kryo serializer scala extensions are not available
大数据·flink