Hadoop集群搭建(上):centos 7为例(已将将安装所需压缩包统一放在了/opt/software目录下)

一.配置主机名

1.查看自己服务器ip输入命令:ifconfig

给服务配置一个主机名,这样后面在访问的时候只需要通过主机名而不是 IP 了

|----|--------|-----------|
| 序号 | 主机名称 | IP |
| 1 | master | 设置自己的主机ip |

2.修改主机名在,服务器上执行命令如下:

bash 复制代码
hostnamectl set-hostname master  #将主机名改为master

3.配置 IP 和主机名称之间的映射,要想通过主机名识别服务器还需要配置IP和主机名之间的映射关系,执行如下指令对 IP 映射文件 hosts进行编辑。

bash 复制代码
vim /etc/host

添加以下内容:

bash 复制代码
192.168.65.10 master

4.reboot重启虚拟机通过ping命令ping master显示通即成功:

二. 配置免密登录

在集群开发中,节点之间通常会对集群中其他节点频繁地访问,就需要不断输入目标服务器的用户名和密码,这种操作方式非常麻烦并且还会影响集群服务的连续运行。为了解决上述问题,可以通过配置SSH 实现服务之间的免密登录功能。

这里,我们只需要配置master到master自己,在master中生成公钥私钥对,将master上的公钥拷贝到master自己。

1.在master服务器上生成公钥私钥对,执行如下命令:

bash 复制代码
ssh-keygen -t rsa #4个回车生成公钥、私钥

2.在master上将公钥拷贝到自己master,执行如下命令

bash 复制代码
ssh-copy-id master

3.完成上述配置后,我们可以选择启动master服务器进行免密测试:

bash 复制代码
ssh master #通过ssh访问master看看是否需要输入密码?

直接登录不需要输入密码即代表配置成功。

三. 关闭防火墙

1.为了方便内部服务之间相互访问,建议将master服务器的防火墙关闭。在master服务器上执行命令如下:

bash 复制代码
systemctl stop firewalld #关闭防火墙
systemctl disable firewalld  #防止防火墙自启

2.配置java环境

1.配置 JDK

由于 Hadoop 是由 Java 语言开发的,Hadoop 集群的使用依赖于 Java 环境,因此在安装 Hadoop 集群前,需要先安装并配置好 JDK。接下来,就在前面规划的 Hadoop 集群主节点master机器上分步骤演示如何安装和配置 JDK。

查看系统已有的JDK执行:

bash 复制代码
rpm -qa | grep java  #查询系统中存在的JDK相关的包

有的话建议删除执行:

bash 复制代码
rpm -e --nodeps rpm包名

出现空白即代表删除彻底:

2.准备JDK文件

为了规范后续 Hadoop 集群相关软件和数据的安装配置,这里在虚拟机的根目录下创建一些文件夹作为约定提示:

bash 复制代码
mkdir -p /opt/data  #数据存储路径
mkdir -p /opt/module  #软件安装路径

3.解压 JDK

接着,将安装包解压到/opt/module/目录,具体指令如下:

bash 复制代码
cd /opt/software #切换工作目录
tar zxvf jdk-8u212-linux-x64.tar.gz -C /opt/module/ #将jdk源文件解压到/opt/module

完成后,到/opt/module目录下会看到解压后的文件

4.配置环境变量安装完 JDK 后,还需要配置 JDK 环境变量,在/etc/profile.d目录下创建一个新的文件my_env.sh

bash 复制代码
vim /etc/profile.d/my_env.sh #编辑文件

在该文件中添加如下内容:

bash 复制代码
#JAVA_HOME
export JAVA_HOME=/opt/module/jdk1.8.0_212
export PATH=$PATH:$JAVA_HOME/bin

修改完成后执行以下命令生效环境变量:

bash 复制代码
source /etc/profile

5.在完成 JDK 的安装和配置后,为了检测安装效果,可以输入如下指令进行验证:

bash 复制代码
java -version

到这里,我们已经完成了master服务器上的 JDK 配置。

相关推荐
字节跳动数据平台1 天前
5000 字技术向拆解 | 火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
武子康2 天前
大数据-239 离线数仓 - 广告业务实战:Flume 导入日志到 HDFS,并完成 Hive ODS/DWD 分层加载
大数据·后端·apache hive
字节跳动数据平台2 天前
代码量减少 70%、GPU 利用率达 95%:火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
得物技术3 天前
深入剖析Spark UI界面:参数与界面详解|得物技术
大数据·后端·spark
武子康3 天前
大数据-238 离线数仓 - 广告业务 Hive分析实战:ADS 点击率、购买率与 Top100 排名避坑
大数据·后端·apache hive
武子康4 天前
大数据-237 离线数仓 - Hive 广告业务实战:ODS→DWD 事件解析、广告明细与转化分析落地
大数据·后端·apache hive
xy123064 天前
OpenStack Train 部署实战(三)控制节点--keystone服务
centos·openstack
大大大大晴天4 天前
Flink生产问题排障-Kryo serializer scala extensions are not available
大数据·flink
武子康6 天前
大数据-236 离线数仓 - 会员指标验证、DataX 导出与广告业务 ODS/DWD/ADS 全流程
大数据·后端·apache hive
武子康7 天前
大数据-235 离线数仓 - 实战:Flume+HDFS+Hive 搭建 ODS/DWD/DWS/ADS 会员分析链路
大数据·后端·apache hive