Hadoop完全分布式环境部署

  1. 准备3台虚拟机,使用ping命令确保虚拟机能够联网,以root用户身份分别在三台虚拟机完成以下系统配置:

(1)在三台虚拟机分别使用yum安装epel-release

(2)在三台虚拟机分别关闭防火墙,保证虚拟机间能够互相ping通

(3)在三台虚拟机分别创建hadoop用户,并配置sudo

(4)在三台虚拟机中分别创建/opt/module, /opt/software 文件夹,并将目录的所有者和所属群组改为haoop用户

(5)在三台虚拟机中卸载自带jdk

提示: rpm -qa | grep java | xargs -n1 rpm -e --nodeps

(6)修改主机名称(/etc/hosts),分别为hadoopxx hadoopxx hadoopxx(xx用自己名字拼音首字母替换)

(7)配置hosts文件,将主机名与IP进行映射

(8)检查上述配置是否生效,不生效可重启虚拟机

2、切换到hadoop身份,分别在三台虚拟机安装JDK

(1)上传JDK安装包到/opt/software,解压安装到/opt/module

(2)配置环境变量,在/etc/profile.d目录下创建自己的环境变量配置文件my_env.sh

(3)添加环境变量JAVA_HOME, 并将JAVA_HOME/bin添加到PATH目录

(4)用source命令使环境变量设置生效

(5)查看JDK是否安装成功

3、以hadoop身份,分别在三台虚拟机继续安装Hadoop

(1)下载Hadoop-3.1.3.tar.gz到/opt/software,解压安装到/opt/module

(2)在my_env.sh文件添加HADOOP_HOME环境变量,并追加到PATH环境变量

(3)用source命令使环境变量生效

(4)配置无密码登录,确保主机间能够以hadoop身份通过ssh无密码互相访问(包括自己)

4.集群配置

(1)集群规划如下:

第一个节点: NameNode、DataNode、NodeManager

第二个节点: DataNode、ResourceManager、NodeManager

第三个节点:Secondary NameNode, DataNode,NodeManager

(2)在一台机器配置:core-site.xml 、hdfs-site.xml、yarn-site.xml、mapred-site.xml、workers文件

(3)将配置文件同步到其它两个节点

(4)启动hdfs

(5)启动yarn

(6)浏览器测试hdfs、yarn

相关推荐
咸鱼求放生5 小时前
es在Linux安装
大数据·elasticsearch·搜索引擎
记得开心一点嘛5 小时前
使用MinIO搭建自己的分布式文件存储
分布式·spring cloud·minio
纪元A梦6 小时前
分布式拜占庭容错算法——PBFT算法深度解析
java·分布式·算法
人大博士的交易之路6 小时前
今日行情明日机会——20250606
大数据·数学建模·数据挖掘·数据分析·涨停回马枪
神奇侠20247 小时前
Hive SQL常见操作
hive·hadoop·sql
Leo.yuan9 小时前
数据库同步是什么意思?数据库架构有哪些?
大数据·数据库·oracle·数据分析·数据库架构
SelectDB技术团队10 小时前
从 ClickHouse、Druid、Kylin 到 Doris:网易云音乐 PB 级实时分析平台降本增效
大数据·数据仓库·clickhouse·kylin·实时分析
Web极客码11 小时前
在WordPress上添加隐私政策页面
大数据·人工智能·wordpress
TCChzp12 小时前
Kafka入门-消费者
分布式·kafka
Apache Flink12 小时前
Flink在B站的大规模云原生实践
大数据·云原生·flink