Hadoop完全分布式环境部署

  1. 准备3台虚拟机,使用ping命令确保虚拟机能够联网,以root用户身份分别在三台虚拟机完成以下系统配置:

(1)在三台虚拟机分别使用yum安装epel-release

(2)在三台虚拟机分别关闭防火墙,保证虚拟机间能够互相ping通

(3)在三台虚拟机分别创建hadoop用户,并配置sudo

(4)在三台虚拟机中分别创建/opt/module, /opt/software 文件夹,并将目录的所有者和所属群组改为haoop用户

(5)在三台虚拟机中卸载自带jdk

提示: rpm -qa | grep java | xargs -n1 rpm -e --nodeps

(6)修改主机名称(/etc/hosts),分别为hadoopxx hadoopxx hadoopxx(xx用自己名字拼音首字母替换)

(7)配置hosts文件,将主机名与IP进行映射

(8)检查上述配置是否生效,不生效可重启虚拟机

2、切换到hadoop身份,分别在三台虚拟机安装JDK

(1)上传JDK安装包到/opt/software,解压安装到/opt/module

(2)配置环境变量,在/etc/profile.d目录下创建自己的环境变量配置文件my_env.sh

(3)添加环境变量JAVA_HOME, 并将JAVA_HOME/bin添加到PATH目录

(4)用source命令使环境变量设置生效

(5)查看JDK是否安装成功

3、以hadoop身份,分别在三台虚拟机继续安装Hadoop

(1)下载Hadoop-3.1.3.tar.gz到/opt/software,解压安装到/opt/module

(2)在my_env.sh文件添加HADOOP_HOME环境变量,并追加到PATH环境变量

(3)用source命令使环境变量生效

(4)配置无密码登录,确保主机间能够以hadoop身份通过ssh无密码互相访问(包括自己)

4.集群配置

(1)集群规划如下:

第一个节点: NameNode、DataNode、NodeManager

第二个节点: DataNode、ResourceManager、NodeManager

第三个节点:Secondary NameNode, DataNode,NodeManager

(2)在一台机器配置:core-site.xml 、hdfs-site.xml、yarn-site.xml、mapred-site.xml、workers文件

(3)将配置文件同步到其它两个节点

(4)启动hdfs

(5)启动yarn

(6)浏览器测试hdfs、yarn

相关推荐
怎么才能努力学习啊1 小时前
Hive之加载csv格式数据到hive
数据仓库·hive·hadoop
Swift社区4 小时前
【分布式日志篇】从工具选型到实战部署:全面解析日志采集与管理路径
人工智能·spring boot·分布式
指尖下的技术5 小时前
Kafka面试题----Kafka消息是采用Pull模式,还是Push模式
分布式·kafka
黑客老李7 小时前
区块链 智能合约安全 | 回滚攻击
服务器·数据仓库·hive·hadoop·区块链·php·智能合约
SelectDB技术团队7 小时前
金融场景 PB 级大规模日志平台:中信银行信用卡中心从 Elasticsearch 到 Apache Doris 的先进实践
大数据·elasticsearch·金融·doris·日志分析
码至终章7 小时前
kafka常用目录文件解析
java·分布式·后端·kafka·mq
小马爱打代码8 小时前
Kafka-常见的问题解答
分布式·kafka
MXsoft6188 小时前
华为E9000刀箱服务器监控指标解读
大数据·运维
cr72588 小时前
MCP Server 开发实战:无缝对接 LLM 和 Elasticsearch
大数据·elasticsearch·搜索引擎