基于伪分布式模式部署Hadoop集群

1.上传Hadoop安装包

在/export/software目录下使用rz命令上传Hadoop安装包

2.创建目录

在/export/servers目录下创建wfb-hadoop目录,用于存放Hadoop的安装目录,命令如下:

mkdir -p /export/servers/wfb-hadoop

3.安装Hadoop

1)将Hadoop安装到/export/servers/wfb-hadoop目录,命令如下:

tar -zxvf /export/software/Hadoop-3.3.4.tar.gz -C /export/servers/wfb-hadoop

2)安装完成之后,进入到安装目录/export/servers/wfb-hadoop/Hadoop-3.3.4,并执行ll命令查 看Hadoop安装目录中的所有文件

4.验证Hadoop是否安装成功

在安装目录执行bin/Hadoop version命令查看Hadoop版本号,来验证是否安装成功

5.修改Hadoop配置文件

进入安装目录下的/etc/hadoop目录

1)使用vi Hadoop-env.sh命令进行编辑,在该文件中添加如下内容:

export JAVA_HOME=/export/servers/jdk1.8.0_171

export HDFS_NAMENODE_USER=root

export HDFS_DATANODE_USER=root

export HDFS_SECONDARYNAMENODE_USER=root

export YARN_RESOURCEMANAGER_USER=root

export YARN_NODEMANAGER_USER=root

2)执行vi core-site.xml命令进行编辑,在<configuration>标签中添加如下内容:

<property>

<name>fs.defaultFS</name>

<value>hdfs://hadoop1:9000</value>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>/export/data/hadoop-wfb-3.3.4</value>

</property>

<property>

<name>hadoop.http.staticuser.user</name>

<value>root</value>

</property>

<property>

<name>hadoop.proxyuser.root.hosts</name>

<value>*</value>

</property>

<property>

<name>hadoop.proxyuser.root.groups</name>

<value>*</value>

</property>

<property>

<name>fs.trash.interval</name>

<value>1440</value>

</property>

3)执行vi hdfs-site.xml命令进行编辑,在文件的<configuration>标签中添加如下内容:

<property>

<name>dfs.replication</name>

<value>1</value>

</property>

<property>

<name>dfs.namenode.secondary.http-address</name>

<value>hadoop1:9868</value>

</property>

4)执行vi mapred-site.xml命令进行编辑,在文件的<configuration>标签中添加如下内容:

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

<property>

<name>mapreduce.jobhistory.address</name>

<value>hadoop1:10020</value>

</property>

<property>

<name>mapreduce.jobhistory.webapp.address</name>

<value>hadoop1:19888</value>

</property>

<property>

<name>yarn.app.mapreduce.am.env</name>

<value>HADOOP_MAPRED_HOME=/export/servers/wfb-hadoop/hadoop-3.3.4</value>

</property>

<property>

<name>marpreduce.map.env</name>

<value>HADOOP_MAPRED_HOME=/export/servers/wfb_hadoop/hadoop-3.3.4</value>

</property>

<property>

<name>mapreduce.reduce.env</name>

<value>HADOOP_MAPRED_HOME=/export/servers/wfb-hadoop/hadoop-3.3.4</value>

</property>

5)执行vi yarn-site.xml命令进行编辑,在文件的<configuration>标签中添加如下内容:

<property>

<name>yarn.resorcemanager.hostname</name>

<value>hadoop1</value>

</property>

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

<property>

<name>yarn.nodemanager.pmem-check-enabled</name>

<value>false</value>

</property>

<property>

<name>yarn.nodemanager.vmem-check-enabled</name>

<value>false</value>

</property>

<property>

<name>yarn.log-aggregation-enable</name>

<value>true</value>

</property>

<property>

<name>yarn.log.server.url</name>

<value>http://hadoop1:19888/jobhistory/logs\</value>

</property>

<property>

<name>yarn.log-aggregation.retain-seconds</name>

<value>604800</value>

</property>

6)在安装目录虚下的/etc/hadoop目录执行vi workers命令,配置Hadoop从节点运行的服务器,将workers文件的默认内容改为hadoop1

6.格式化HDFS文件系统

在安装目录下执行如下命令,进行HDFS格式化(我已经进行格式化了,不再展示命令执行结果),出现successfully formatted说明格式化成功

bin/hdfs namenode -format

7.启动Hadoop

在安装目录下执行下列命令,启动HDFS和YARN

sbin/start-dfs.sh

sbin/start-yarn.sh

8.查看Hadoop运行状态

使用jps命令查看HDFS和YARN的相关服务

相关推荐
2503_946971862 分钟前
【FullStack/ZeroDay】2026年度全栈魔法架构与分布式恶意节点清除基准索引 (Benchmark Index)
分布式·网络安全·架构·系统架构·区块链·数据集·全栈开发
回家路上绕了弯5 分钟前
Resilience4j全面指南:轻量级熔断限流框架的实战与落地
分布式·后端
linweidong35 分钟前
hive sql行转列,列转行sql的实例
hive·hadoop·sql
LDG_AGI1 小时前
【推荐系统】深度学习训练框架(二十二):PyTorch2.5 + TorchRec1.0超大规模模型分布式推理实战
人工智能·分布式·深度学习
2503_946971861 小时前
【SystemDesign/HA】2025年度高可用分布式仿真节点与预测模型容灾演练配置 (Disaster Recovery Config)
大数据·分布式·算法·系统架构·数据集
linux修理工1 小时前
kafka topic consumer
分布式·kafka·linq
西格电力科技1 小时前
光伏四可装置硬件平台架构详解:计算单元、通信接口与可靠性设计
运维·人工智能·分布式·架构·系统架构·能源
阿猿收手吧!1 小时前
【Elasticsearch】Elasticsearch:高性能分布式搜索与分析引擎
大数据·分布式·elasticsearch
@淡 定2 小时前
分布式ID生成策略
分布式
回家路上绕了弯19 小时前
熔断限流实战指南:分布式系统的稳定性守卫
分布式·后端