Hadoop完全分布式环境部署

  1. 准备3台虚拟机,使用ping命令确保虚拟机能够联网,以root用户身份分别在三台虚拟机完成以下系统配置:

(1)在三台虚拟机分别使用yum安装epel-release

(2)在三台虚拟机分别关闭防火墙,保证虚拟机间能够互相ping通

(3)在三台虚拟机分别创建hadoop用户,并配置sudo

(4)在三台虚拟机中分别创建/opt/module, /opt/software 文件夹,并将目录的所有者和所属群组改为haoop用户

(5)在三台虚拟机中卸载自带jdk

提示: rpm -qa | grep java | xargs -n1 rpm -e --nodeps

(6)修改主机名称(/etc/hosts),分别为hadoopxx hadoopxx hadoopxx(xx用自己名字拼音首字母替换)

(7)配置hosts文件,将主机名与IP进行映射

(8)检查上述配置是否生效,不生效可重启虚拟机

2、切换到hadoop身份,分别在三台虚拟机安装JDK

(1)上传JDK安装包到/opt/software,解压安装到/opt/module

(2)配置环境变量,在/etc/profile.d目录下创建自己的环境变量配置文件my_env.sh

(3)添加环境变量JAVA_HOME, 并将JAVA_HOME/bin添加到PATH目录

(4)用source命令使环境变量设置生效

(5)查看JDK是否安装成功

3、以hadoop身份,分别在三台虚拟机继续安装Hadoop

(1)下载Hadoop-3.1.3.tar.gz到/opt/software,解压安装到/opt/module

(2)在my_env.sh文件添加HADOOP_HOME环境变量,并追加到PATH环境变量

(3)用source命令使环境变量生效

(4)配置无密码登录,确保主机间能够以hadoop身份通过ssh无密码互相访问(包括自己)

4.集群配置

(1)集群规划如下:

第一个节点: NameNode、DataNode、NodeManager

第二个节点: DataNode、ResourceManager、NodeManager

第三个节点:Secondary NameNode, DataNode,NodeManager

(2)在一台机器配置:core-site.xml 、hdfs-site.xml、yarn-site.xml、mapred-site.xml、workers文件

(3)将配置文件同步到其它两个节点

(4)启动hdfs

(5)启动yarn

(6)浏览器测试hdfs、yarn

相关推荐
武子康18 小时前
大数据-240 离线数仓 - 广告业务 Hive ADS 实战:DataX 将 HDFS 分区表导出到 MySQL
大数据·后端·apache hive
回家路上绕了弯2 天前
深入解析Agent Subagent架构:原理、协同逻辑与实战落地指南
分布式·后端
字节跳动数据平台2 天前
5000 字技术向拆解 | 火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
武子康2 天前
大数据-239 离线数仓 - 广告业务实战:Flume 导入日志到 HDFS,并完成 Hive ODS/DWD 分层加载
大数据·后端·apache hive
字节跳动数据平台3 天前
代码量减少 70%、GPU 利用率达 95%:火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
得物技术3 天前
深入剖析Spark UI界面:参数与界面详解|得物技术
大数据·后端·spark
武子康3 天前
大数据-238 离线数仓 - 广告业务 Hive分析实战:ADS 点击率、购买率与 Top100 排名避坑
大数据·后端·apache hive
武子康4 天前
大数据-237 离线数仓 - Hive 广告业务实战:ODS→DWD 事件解析、广告明细与转化分析落地
大数据·后端·apache hive
大大大大晴天4 天前
Flink生产问题排障-Kryo serializer scala extensions are not available
大数据·flink
武子康6 天前
大数据-236 离线数仓 - 会员指标验证、DataX 导出与广告业务 ODS/DWD/ADS 全流程
大数据·后端·apache hive