hadoop 三种运行方式

一、本地运行方式

1 创建在hadoop-3.3.5文件下面创建一个wcinput****文件夹

[antares@hadoop1 hadoop-3.3.5]$ mkdir wcinput

[antares@hadoop1 hadoop-3.3.5]$ cd wcinput

[antares@hadoop1 wcinput]$ vim word.txt

内容可以随便写即可:(比如编写如下内容)

启动: systemctl start docker
停止: systemctl stop docker
重启: systemctl restart docker
查看: systemctl status docker
开机: systemctl enable docker

2 回到Hadoop目录**/opt/module/hadoop-3.3.5** 执行程序如下

[antares@hadoop1 hadoop-3.3.5]$ hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.5.jar wordcount wcinput wcoutput

注意:wcoutput ---这个是在命令运行过程中新生成的,不可提前建立该文件

3 查看执行后的结果

[antares@hadoop1 hadoop-3.3.5]$ cat wcoutput/part-r-00000

docker 5

enable 1

restart 1

start 1

status 1

stop 1

systemctl 5

停止: 1

启动: 1

开机: 1

查看: 1

重启: 1

二 、编写集群分发脚本

1 在其中一台虚拟机上创建一个文件

[antares@hadoop1 hadoop-3.3.5]$ vim kang.txt

2 给用户授权并能操作 /opt/module

[antares@hadoop1 hadoop-3.3.5]$ sudo chown antares:antares -R /opt/module

如果本来就是用这个命令登录,那么不需要再进行授权可执行。

3 通过命令进行文件拷贝,拷贝给hadoop 3,需要知道hadoop 3的密码

[antares@hadoop2 hadoop-3.3.5]$ ls
bin  include   lib      LICENSE-binary   LICENSE.txt    NOTICE.txt  sbin   wcinput
etc  kang.txt  libexec  licenses-binary  NOTICE-binary  README.txt  share  wcoutput
[antares@hadoop2 hadoop-3.3.5]$ pwd
/opt/module/hadoop-3.3.5
[antares@hadoop2 hadoop-3.3.5]$ scp -r /opt/module/hadoop-3.3.5/kang.txt      antares@hadoop3:/opt/module/hadoop-3.3.5/
The authenticity of host 'hadoop3 (192.168.193.176)' can't be established.
ECDSA key fingerprint is SHA256:HmeFoPbjR1dLiPcwjnlsYhOq3EiaJirR7H9jcjQnBfU.
ECDSA key fingerprint is MD5:d2:d9:4f:61:0b:5a:65:c1:c0:48:d7:b4:c2:f2:1f:1a.
Are you sure you want to continue connecting (yes/no)? yes
Warning: Permanently added 'hadoop3,192.168.193.176' (ECDSA) to the list of known hosts.
antares@hadoop3's password: 
kang.txt  

另外一台的操作同样使用上述命令,同意(yes)后再输入password 接口拷贝成功。可登录刚拷贝的虚拟机查看是否已经拷贝成功。

4 制作同步脚本 -rsync远程同步工具

rsync主要用于备份和镜像。具有速度快、避免复制相同内容和支持符号链接的优点。

rsync和scp区别:用rsync做文件的复制要比scp的速度快,rsync只对差异文件做更新。scp是把所有文件都复制过去

rsync主要用于备份和镜像。具有速度快、避免复制相同内容和支持符号链接的优点。

rsync和scp区别:用rsync做文件的复制要比scp的速度快,rsync只对差异文件做更新。scp是把所有文件都复制过去。
删除hadoop3中/opt/module/hadoop-3.3.5/下的 wcinput 和 wcoutput

[antares@hadoop3 hadoop-3.3.5]$ rm -rf wcinput wcoutput

同步hadoop102中的/opt/module/hadoop-3.3.5到hadoop103

[antares@hadoop2 module]$ rsync -av hadoop-3.3.5/ antares@hadoop3:/opt/module/hadoop-3.3.5/

相关推荐
材料苦逼不会梦到计算机白富美38 分钟前
golang分布式缓存项目 Day 1
分布式·缓存·golang
拓端研究室TRL42 分钟前
【梯度提升专题】XGBoost、Adaboost、CatBoost预测合集:抗乳腺癌药物优化、信贷风控、比特币应用|附数据代码...
大数据
黄焖鸡能干四碗1 小时前
信息化运维方案,实施方案,开发方案,信息中心安全运维资料(软件资料word)
大数据·人工智能·软件需求·设计规范·规格说明书
想进大厂的小王1 小时前
项目架构介绍以及Spring cloud、redis、mq 等组件的基本认识
redis·分布式·后端·spring cloud·微服务·架构
Java 第一深情1 小时前
高性能分布式缓存Redis-数据管理与性能提升之道
redis·分布式·缓存
编码小袁1 小时前
探索数据科学与大数据技术专业本科生的广阔就业前景
大数据
WeeJot嵌入式2 小时前
大数据治理:确保数据的可持续性和价值
大数据
ZHOU西口2 小时前
微服务实战系列之玩转Docker(十八)
分布式·docker·云原生·架构·数据安全·etcd·rbac
zmd-zk3 小时前
kafka+zookeeper的搭建
大数据·分布式·zookeeper·中间件·kafka
激流丶3 小时前
【Kafka 实战】如何解决Kafka Topic数量过多带来的性能问题?
java·大数据·kafka·topic