Hadoop分布式安装

首先准备好三台服务器或者虚拟机,我本机安装了三个虚拟机,安装虚拟机的步骤参考我之前的一篇

virtualBox虚拟机安装多个+主机访问虚拟机+虚拟机访问外网配置-CSDN博客


jdk安装

参考文档:Linux 环境下安装JDK1.8并配置环境变量_linux安装jdk1.8并配置环境变量_Xi-Yuan的博客-CSDN博客

一台机器配置完成jdk之后,我们将已经解压完成的jdk分发到另外两台虚拟机上

我们的hosts中ip和域名没有映射

或者通过ip分发,不用配置域名映射了

scp -r /usr/java/jdk1.8.0_391 192.168.137.16:/usr/java

hosts配置,点击多屏同时编辑

vi /etc/hosts

scp -r /usr/java/jdk1.8.0_391 hadoop02:/usr/java

分发完成之后记得其它两台机器的java配置一下

vi /etc/profile

export JAVA_HOME=/usr/java/jdk1.8.0_391

export PATH=PATH:JAVA_HOME/bin

source /etc/profile
hadoop包提前下载好,官网的下载速度实在太慢,我的下载地址如下:

We Transfer Gratuit. Envoi sécurisé de gros fichiers. (swisstransfer.com)

解压缩到/usr目录下

tar -zxvf hadoop-2.9.2.tar.gz -C /usr

hadoop配置工作

cd /usr/hadoop-2.9.2/etc/hadoop

vi hadoop-env.sh

更改如下配置

JAVA_HOME=/usr/java/jdk1.8.0_391

vi core-site.xml

<property>

<name>fs.defaultFS</name>

<value>hdfs://hadoop01:9000</value>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>/usr/hadoop-2.9.2/tmp</value>

</property>

vi hdfs-site.xml

<property>

<name>dfs.replication</name>

<value>2</value>

</property>

<property>

<name>dfs.permissions</name>

<value>true</value>

</property>

mv mapred-site.xml.template mapred-site.xml

vi mapred-site.xml

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

vi yarn-site.xml

<property>

<name>yarn.resourcemanager.hostname</name>

<value>hadoop01</value>

</property>

<property>

<name>yarn.nodemanager.aux-service</name>

<value>mapreduce_shuffle</value>

</property>

vi slaves

删除已有的localhost

添加从节点域名

hadoop02

hadoop03

将hadoop01虚拟机上hadoop的文件分发到其它两台虚拟机

scp -r /usr/hadoop-2.9.2 hadoop02:/usr

scp -r /usr/hadoop-2.9.2 hadoop03:/usr

hadoop启动

#HADDOOP_HOME配置

source /ect/profile

#初始化

hdfs namenode -format

#一键启动之前配置好免密登录功能,否则启动和停止时需要n次输入密码

cd /root

ssh-keygen

遇到需要输入的直接回车即可

#查看.ssh目录是否已经生成

第一台机器有known_hosts,因为我们之前在第一台虚拟机上scp -r分发过文件给其他两台机器,所以建立过ssh连接,查看known_hosts

现在还没有应用出去

ssh-copy-id hadoop01

ssh-copy-id hadoop02

ssh-copy-id hadoop03

#一键启动,只在hadoop01机器上一键启动即可

#jps查看已经启动起来的服务

至此hadoop分布式搭建完成
hadoop集群的web端访问

#关闭防火墙

查看当前防火墙状态:systemctl status firewalld

临时关闭防火墙:systemctl stop firewalld

永久关闭防火墙:systemctl disable firewalld

#HDFS web页面访问

第一台虚拟机ip

http://192.168.137.16:50070/

可以看到其他两个节点

yarn集群web页面

http://192.168.137.16:8088/

相关推荐
Dxy123931021641 分钟前
Elasticsearch 8.13.4 内存占用过大如何处理
大数据·elasticsearch·搜索引擎
qq_12498707533 小时前
基于深度学习的蘑菇种类识别系统的设计与实现(源码+论文+部署+安装)
java·大数据·人工智能·深度学习·cnn·cnn算法
泰迪智能科技3 小时前
新疆高校大数据人工智能实验室建设案例
大数据·人工智能
Light603 小时前
数据战争的星辰大海:从纷争到融合,五大核心架构的终局之战与AI新纪元
大数据·人工智能·数据治理·湖仓一体·数据中台·数据架构·选型策略
qq_348231853 小时前
市场快评 · 今日复盘20251231
大数据
小北方城市网3 小时前
Python + 前后端全栈进阶课程(共 10 节|完整版递进式|从技术深化→项目落地→就业进阶,无缝衔接基础课)
大数据·开发语言·网络·python·数据库架构
喜欢编程的小菜鸡4 小时前
2025:中国大数据行业的“价值觉醒”之年——从规模基建到效能释放的历史性转折
大数据
策知道4 小时前
从“抗旱保苗”到“修渠引水”:读懂五年财政政策的变奏曲
大数据·数据库·人工智能·搜索引擎·政务
XC131489082675 小时前
法律行业获客,如何用科技手段突破案源瓶颈的实操方法
大数据·人工智能·科技
深圳市恒星物联科技有限公司5 小时前
恒星物联亮相湖南城市生命线安全工程培训会展会
大数据·数据库·物联网