九,Linux基础环境搭建(CentOS7)- 安装Sqoop

Linux基础环境搭建(CentOS7)- 安装Sqoop

大家注意以下的环境搭建版本号,如果版本不匹配有可能出现问题!


一、Sqoop下载及安装

HBase是一个分布式的、面向列的开源数据库,该技术来源于 Fay Chang 所撰写的Google论文"Bigtable:一个结构化数据的分布式存储系统"。就像Bigtable利用了Google文件系统(File System)所提供的分布式数据存储一样,HBase在Hadoop之上提供了类似于Bigtable的能力。HBase是Apache的Hadoop项目的子项目。HBase不同于一般的关系数据库,它是一个适合于非结构化数据存储的数据库。另一个不同的是HBase基于列的而不是基于行的模式。

Sqoop的下载

Sqoop下载链接:https://pan.baidu.com/s/1hshFBW5Wkj9MnNMTYN_gGA

提取码:hqxt

将下载的安装包通过Xftp传输到Linux虚拟机/opt/software/中

Sqoop的安装

创建工作路径/usr/sqoop,下载hadoop安装包到/opt/software中,然后解压至工作路径。

mkdir /usr/sqoop		#首先在根目录下建立工作路径/usr/hbase
cd /opt/software		#进入安装包的文件夹
tar -zxvf sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz -C /usr/sqoop
配置profile文件
vim /etc/profile

添加内容如下:

export SQOOP_HOME=/usr/sqoop/sqoop-1.4.6.bin__hadoop-2.0.4-alpha
export PATH=$PATH:$ZOOKEEPER_HOME/bin:$SQOOP_HOME/bin
# wq保存
刷新profile文件
source /etc/profile
修改sqoop-env.sh文件
mv sqoop-env-template.sh sqoop-env.sh
vim sqoop-env.sh

修改内容如下:

#Set path to where bin/hadoop is available
export HADOOP_COMMON_HOME=/usr/hadoop/hadoop-2.7.3

#Set path to where hadoop-*-core.jar is available
export HADOOP_MAPRED_HOME=/usr/hadoop/hadoop-2.7.3

#set the path to where bin/hbase is available
export HBASE_HOME=/usr/hbase/hbase-1.2.4

#Set the path to where bin/hive is available
export HIVE_HOME=/usr/hive/apache-hive-2.1.1-bin

#Set the path for where zookeper config dir is
export ZOOCFGDIR=/usr/zookeeper/zookeeper-3.4.10/conf

具体的版本根据自己的环境为主!!

将mysql关系型数据库驱动包放到sqoop/lib目录下

这里需要下载mysql关系型数据库驱动包 放到本地/opt/software/下

mysql依赖包下载链接:https://pan.baidu.com/s/1bjQPoaMab3CMiS1-5ojGgw

提取码:a4l3

cp /opt/software/mysql-connector-java-5.1.47-bin.jar /usr/sqoop/sqoop-1.4.6.bin__hadoop-2.0.4-alpha/lib/
Sqoop测试
1 导入mysql数据到hdfs中

查看数据 导入数据

cd /usr/sqoop/sqoop-1.4.6.bin__hadoop-2.0.4-alpha/bin/
sqoop import \
	--connect "jdbc:mysql://slave2:3306/sparktest?useUnicode=true&characterEncoding=utf-8" \
	--username root \
	--password John123456 \
	--table employee \
	--m 1 \
	--driver com.mysql.jdbc.Driver \
	--target-dir /user/imports_sqoop_test/

查看结果 导出成功!

2 导出hdfs数据到mysql中

mysql数据库中sqoop库中出来sqoopdata表,表结构及数据如下所示: 将数据保存在本地/opt/data/下 将数据上传到hdfs上

hdfs dfs -mkdir /user/sqooptest
hdfs dfs -put /opt/data/sqoopdata.txt /user/sqooptest/

在mysql端创建数据库和表

mysql> show databases;
+--------------------+
| Database           |
+--------------------+
| information_schema |
| hive               |
| hive_mysql         |
| hive_mysql_test    |
| mysql              |
| performance_schema |
| sparktest          |
| sys                |
| test               |
+--------------------+
9 rows in set (0.09 sec)

mysql> create database sqoopbase;
Query OK, 1 row affected (0.00 sec)

mysql> use sqoopbase;
Database changed

mysql> create table IF NOT EXISTS sqooptable ( id INT, name VARCHAR(20), gender VARCHAR(20) )character set utf8 collate utf8_general_ci;
Query OK, 0 rows affected (0.25 sec)

mysql> select * from sqooptable;
Empty set (0.04 sec)

通过sqoop从hdfs导出数据到mysql

cd /usr/sqoop/sqoop-1.4.6.bin__hadoop-2.0.4-alpha/bin/
sqoop export \
	--connect "jdbc:mysql://slave2:3306/sqoopbase?useUnicode=true&characterEncoding=utf-8" \
	--username root \
	--password John123456 \
	--table sqooptable \
	--fields-terminated-by ',' \
	--export-dir /user/sqooptest/sqoopdata.txt

导出成功!

3 关于sqoop实战可观看以下博客

!!!关于sqoop运行时的警告解决方式

可以看一下这一篇博客:


相关推荐
chenbin5205 分钟前
Jenkins 自动构建Job
运维·jenkins
java 凯6 分钟前
Jenkins插件管理切换国内源地址
运维·jenkins
AI服务老曹10 分钟前
运用先进的智能算法和优化模型,进行科学合理调度的智慧园区开源了
运维·人工智能·安全·开源·音视频
风静如云1 小时前
OpenBMC:BmcWeb定义service
linux
sszdzq1 小时前
Docker
运维·docker·容器
book01211 小时前
MySql数据库运维学习笔记
运维·数据库·mysql
leoufung2 小时前
VIM FZF 安裝和使用
linux·编辑器·vim
bugtraq20212 小时前
XiaoMi Mi5(gemini) 刷入Ubuntu Touch 16.04——安卓手机刷入Linux
linux·运维·ubuntu
xmweisi3 小时前
【华为】报文统计的技术NetStream
运维·服务器·网络·华为认证
VVVVWeiYee3 小时前
BGP配置华为——路径优选验证
运维·网络·华为·信息与通信