Hadoop生态圈框架部署 伪集群版(八)- Sqoop安装与配置

文章目录

  • 前言
  • 一、Sqoop安装与配置(手动安装配置)
    • [1. 下载Sqoop](#1. 下载Sqoop)
    • [2. 解压Sqoop安装包](#2. 解压Sqoop安装包)
      • [2.1 解压](#2.1 解压)
      • [2.2 重命名](#2.2 重命名)
    • [3. 配置Sqoop](#3. 配置Sqoop)
      • [3.1 配置Sqoop环境变量](#3.1 配置Sqoop环境变量)
      • [3.2 修改 sqoop-env.sh 配置文件](#3.2 修改 sqoop-env.sh 配置文件)
      • [3.3 配置jar包](#3.3 配置jar包)
        • [3.3.1 配置MySQL驱动jar包](#3.3.1 配置MySQL驱动jar包)
        • [3.3.2 配置commons-lang-2.6.jar包](#3.3.2 配置commons-lang-2.6.jar包)
    • [4. 测试Sqoop](#4. 测试Sqoop)

前言

随着大数据技术的迅猛发展,数据在不同系统之间的迁移和整合成为了企业级应用中的常见需求。Hadoop作为处理大规模数据集的开源框架,提供了强大的分布式计算能力,而关系型数据库(如MySQL)则因其事务处理能力和结构化查询语言(SQL)的支持,在数据管理和分析中占据着不可替代的位置。然而,如何高效地在Hadoop与传统关系型数据库之间进行数据传输,成为了众多开发者和企业面临的挑战。

Apache Sqoop正是为了解决这一问题而诞生的工具。作为一个专门用于在Hadoop和关系型数据库之间传输数据的命令行工具,Sqoop不仅支持将关系型数据库中的数据导入到Hadoop的HDFS、Hive或HBase中,也能够从Hadoop导出数据至关系型数据库。通过提供高效的批量数据加载机制,Sqoop大大简化了数据迁移过程,并提升了操作效率。

本指南旨在为读者提供一份详尽的Sqoop安装与配置教程,帮助大家顺利地在自己的环境中部署并使用Sqoop。我们将一步步指导您完成从下载、解压到环境变量配置以及最终测试的所有步骤,确保您能够在最短的时间内上手使用这个强大的数据迁移工具。


一、Sqoop安装与配置(手动安装配置)

1. 下载Sqoop

执行如下命令下载Sqoop的安装包sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz到/export/software目录。

shell 复制代码
wget https://repo.huaweicloud.com:8443/artifactory/apache-local/sqoop/1.4.7/sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz -P /export/software

2. 解压Sqoop安装包

2.1 解压

将Sqoop安装包通过解压方式安装至/export/servers目录。

shell 复制代码
tar -zxvf /export/software/sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz -C /export/servers/

解压完成如下图所示。

2.2 重命名

执行如下命令将sqoop-1.4.7.bin__hadoop-2.6.0重命名为sqoop-1.4.7。

shell 复制代码
mv /export/servers/sqoop-1.4.7.bin__hadoop-2.6.0 /export/servers/sqoop-1.4.7

3. 配置Sqoop

3.1 配置Sqoop环境变量

执行如下命令设置Sqoop环境变量,加载系统环境变量配置文件,并查看环境变量是否配置成功。

shell 复制代码
echo >> /etc/profile
echo 'export SQOOP_HOME=/export/servers/sqoop-1.4.7' >> /etc/profile
echo 'export PATH=$PATH:$SQOOP_HOME/bin' >> /etc/profile
source /etc/profile
echo $SQOOP_HOME

3.2 修改 sqoop-env.sh 配置文件

使用cat命令把配置内容重定向并写入到 /export/servers/sqoop-1.4.7/conf/sqoop-env.sh 文件。

shell 复制代码
cat >/export/servers/sqoop-1.4.7/conf/sqoop-env.sh <<EOF
export HADOOP_COMMON_HOME=\$HADOOP_HOME
export HADOOP_MAPRED_HOME=\$HADOOP_HOME
export HBASE_HOME=\$HBASE_HOME
export HIVE_HOME=\$HIVE_HOME
export ZOOCFGDIR=\$ZK_HOME/conf
export ZOOKEEPER_HOME=\$ZK_HOME
export HCAT_HOME=\$HCAT_HOME
export ACCUMULO_HOME=\$ACCUMULO_HOME
EOF

3.3 配置jar包

3.3.1 配置MySQL驱动jar包

执行如下命令下载MySQL驱动包到/export/servers/sqoop-1.4.7/lib目录下。

shell 复制代码
wget https://repo1.maven.org/maven2/mysql/mysql-connector-java/8.0.30/mysql-connector-java-8.0.30.jar -P /export/servers/sqoop-1.4.7/lib
3.3.2 配置commons-lang-2.6.jar包

执行如下命令下载commons-lang-2.6.jar包到/export/servers/sqoop-1.4.7/lib目录下。

shell 复制代码
wget https://repo.maven.apache.org/maven2/commons-lang/commons-lang/2.6/commons-lang-2.6.jar -P /export/servers/sqoop-1.4.7/lib

4. 测试Sqoop

执行如下命令使用Sqoop查询MySQL中的所有数据库。

shell 复制代码
sqoop list-databases --connect jdbc:mysql://hadoop:3306/?allowPublicKeyRetrieval=true --username root --password 123456
相关推荐
武子康18 分钟前
大数据-258 离线数仓 - Griffin架构 配置安装 Livy 架构设计 解压配置 Hadoop Hive
java·大数据·数据仓库·hive·hadoop·架构
lucky_syq2 小时前
Flume和Kafka的区别?
大数据·kafka·flume
AI_NEW_COME2 小时前
构建全方位大健康零售帮助中心:提升服务与体验
大数据·人工智能
it噩梦3 小时前
es 中 terms set 使用
大数据·elasticsearch
中科岩创3 小时前
中科岩创边坡自动化监测解决方案
大数据·网络·物联网
DolphinScheduler社区4 小时前
作业帮基于 Apache DolphinScheduler 3_0_0 的缺陷修复与优化
大数据
SeaTunnel4 小时前
京东科技基于 Apache SeaTunnel 复杂场景适配 #数据集成
大数据
喝醉酒的小白5 小时前
Elasticsearch 配置文件
大数据·elasticsearch·搜索引擎
一只敲代码的猪5 小时前
Llama 3 模型系列解析(一)
大数据·python·llama
智慧化智能化数字化方案6 小时前
深入解读数据资产化实践指南(2024年)
大数据·人工智能·数据资产管理·数据资产入表·数据资产化实践指南