CentOS7 Sqoop 1.4.7 安装 (Hadoop 3.3.0)

CentOS7 Sqoop 1.4.7 安装 (Hadoop 3.3.0)

1、 Sqoop 1.4.7 官网链接下载:

https://archive.apache.org/dist/sqoop/1.4.7/

2、把压缩包用mobaxterm拖到 /tools文件夹
3、解压
bash 复制代码
tar -zvxf /tools/sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz -C /training/
4、进入 /training 文件夹
bash 复制代码
cd /training
5、重命名文件夹
bash 复制代码
mv sqoop-1.4.7.bin__hadoop-2.6.0 sqoop-1.4.7
6、查看一下重命名成功没,可以看到改名为sqoop-1.4.7了
bash 复制代码
ll
7、编辑环境变量
bash 复制代码
vi ~/.bash_profile

1)加进去这个

bash 复制代码
#sqoop
export SQOOP_HOME=/training/sqoop-1.4.7
export PATH=$PATH:$SQOOP_HOME/bin

2)按esc按钮后 :wq 保存并退出文件

3)生效环境变量

bash 复制代码
source ~/.bash_profile
8、Sqoop配置

1)进去配置文件路径

bash 复制代码
cd /training/sqoop-1.4.7/conf

2)复制一份

bash 复制代码
cp sqoop-env-template.sh sqoop-env.sh

3)更改文件sqoop-env.sh

bash 复制代码
vi sqoop-env.sh

4)看清楚自己的路径是啥,把以下加进去并更改

bash 复制代码
export HADOOP_COMMON_HOME=/training/hadoop-3.3.0
export HADOOP_MAPRED_HOME=/training/hadoop-3.3.0
export HIVE_HOME=/training/hive

5)加入mysql的jdbc驱动包到sqoop的lib文件夹

链接:https://pan.baidu.com/s/1gD2M8Gr9IFOkOA4EghfWLg?pwd=32r8

9、检查是否可用

1)sqoop版本号查询

bash 复制代码
sqoop version

2)sqoop帮助查询

bash 复制代码
sqoop-help
10、测试sqoop链接Linux Mysql
bash 复制代码
sqoop list-databases --connect jdbc:mysql://192.168.163.137:3306/ --username root --password Root123!
可能报错:

Exception in thread "main" java.lang.NoClassDefFoundError:

org/apache/commons/lang/StringUtils

a)原因:

找不到类,sqoop版本是1.4.7 而commons-lang3-3.4.jar版本是3.x

b)解决办法:

解决版本问题即可,commons-lang版本改为2.x

c)点击下载百度网盘链接:

commons-lang-2.6.jar

d)替换版本的commons-lang的jar包,将2.x版本的jar复制到sqoop的lib目录下,并删除3.x版本。
e)再尝试就可以了
bash 复制代码
sqoop list-databases --connect jdbc:mysql://192.168.163.137:3306/ --username root --password Root123!
11、测试sqoop链接Windows Mysql
bash 复制代码
sqoop list-databases --connect jdbc:mysql://192.168.163.1 --username root --password Root123!
相关推荐
代码匠心1 天前
从零开始学Flink:Flink SQL四大Join解析
大数据·flink·flink sql·大数据处理
武子康2 天前
大数据-242 离线数仓 - DataX 实战:MySQL 全量/增量导入 HDFS + Hive 分区(离线数仓 ODS
大数据·后端·apache hive
SelectDB3 天前
易车 × Apache Doris:构建湖仓一体新架构,加速 AI 业务融合实践
大数据·agent·mcp
武子康4 天前
大数据-241 离线数仓 - 实战:电商核心交易数据模型与 MySQL 源表设计(订单/商品/品类/店铺/支付)
大数据·后端·mysql
IvanCodes4 天前
一、消息队列理论基础与Kafka架构价值解析
大数据·后端·kafka
武子康5 天前
大数据-240 离线数仓 - 广告业务 Hive ADS 实战:DataX 将 HDFS 分区表导出到 MySQL
大数据·后端·apache hive
字节跳动数据平台5 天前
5000 字技术向拆解 | 火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
武子康6 天前
大数据-239 离线数仓 - 广告业务实战:Flume 导入日志到 HDFS,并完成 Hive ODS/DWD 分层加载
大数据·后端·apache hive
字节跳动数据平台7 天前
代码量减少 70%、GPU 利用率达 95%:火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
得物技术7 天前
深入剖析Spark UI界面:参数与界面详解|得物技术
大数据·后端·spark