Sqoop实操案例-互联网招聘数据迁移

🥇🥇【大数据学习记录篇】-持续更新中~🥇🥇


个人主页:beixi@

本文章收录于专栏(点击传送):【大数据学习】
💓💓持续更新中,感谢各位前辈朋友们支持学习~💓💓

上一篇文章写到了Sqoop的安装与验证,这篇文章接着上篇文章延伸Sqoop迁移数据的案例操作,如果Sqoop没有安装成功的小伙伴们可以参考我上一篇文章:大数据组件Sqoop-安装与验证

文章目录

1.环境介绍

本次用到的环境有:
Oracle Linux 7.4
Hadoop 2.7.4
mysql
sqoop

2.启动hadoop环境

1.打开命令窗口,启动HDFS平台。

bash 复制代码
start-all.sh

2.查看master上HDFS守护进程,注意:依据系统不同,实际显示可能与截图有出入,只要红色框中HDFS所示4个进程存在,即是正确

bash 复制代码
jps

3.互联网招聘数据迁移案例

1.进入Linux命令窗口,登录mysql,我这里账号密码都是root

bash 复制代码
mysql -uroot -proot

2.构建源数据库

bash 复制代码
create database job_db character set 'utf8' collate 'utf8_general_ci';

3.查看数据库

bash 复制代码
show databases;

4.使用job_db数据库

bash 复制代码
use job_db;

5.原始job.sql文件存储在/root/experiment/datas/job/job.sql,将原始数据导入mysql,构建原始表数据

bash 复制代码
source /root/experiment/datas/job/job.sql

6.查看导入结果

bash 复制代码
show tables;

7.查看表数据

bash 复制代码
select * from position;

8.退出mysql窗口

bash 复制代码
quit;

9. 进入sqoop根目录

bash 复制代码
cd /opt/sqoop

10.使用命令列出主机所有数据库

bash 复制代码
bin/sqoop list-databases --connect jdbc:mysql://localhost:3306/ --username root --password root 

11.用命令列出job_db数据库中所有的数据表

bash 复制代码
bin/sqoop list-tables --connect jdbc:mysql://localhost:3306/job_db --username root --password root

12.使用命令将数据库中的表导入到HDFS指定目录中

bash 复制代码
bin/sqoop import  --connect jdbc:mysql://localhost:3306/job_db --username root --password root --delete-target-dir --table position  --target-dir /sqoop/position --m 1 


13.查看/sqoop目录下的文件

bash 复制代码
hdfs dfs -ls -R /sqoop

14.查看导入到HDFS的文件内容

bash 复制代码
hdfs dfs -cat /sqoop/position/part-m-00000


15.再次将数据库中的表数据导入HDFS中,此次采用Tab制表格将字段进行分割

bash 复制代码
bin/sqoop import  --connect jdbc:mysql://localhost:3306/job_db --username root --password root --delete-target-dir --table position  --target-dir /sqoop/position2 --m 1 --fields-terminated-by '\t' 


16.查看HDFS中sqoop目录下的内容

bash 复制代码
hdfs dfs -ls -R /sqoop

17.查看导入到HDFS的文件内容

bash 复制代码
hdfs dfs -cat /sqoop/position2/part-m-00000



至此,互联网招聘数据迁移案例实验到到此结束,如果本篇文章对你有帮助记得点赞收藏+关注~

相关推荐
m0_7482323910 分钟前
python3 Flask应用 使用 Flask-SQLAlchemy操作MySQL数据库
数据库·mysql·flask
tjjingpan10 分钟前
在国产电脑上运行PDFSAM软件使用pdf分割合并交替混合处理pdf文档
linux·pdf
苹果醋316 分钟前
Vue3响应式数据: 深入分析Ref与Reactive
java·运维·spring boot·mysql·nginx
hope_wisdom30 分钟前
Linux系统编程之目录遍历
linux·linux编程·readdir·目录遍历·scandir
人类群星闪耀时1 小时前
利用AI进行系统性能优化:智能运维的新时代
运维·人工智能·性能优化
AZDNA1 小时前
搭建医疗行业AI知识库:提升信息管理与服务效能
大数据·人工智能
小安运维日记1 小时前
CKA认证 | Day7 K8s存储
运维·云原生·容器·kubernetes·云计算
time never ceases1 小时前
Elasticsearch安装和数据迁移
大数据·数据库·elasticsearch·es
LinuxSuRen1 小时前
Jenkins 命令行多线程并发下载制品包
运维·jenkins
存储服务专家StorageExpert1 小时前
墙裂推荐:console, CLI命令行和日志使用字体-Cascadia
运维·服务器·netapp存储·存储维护·emc存储