大数据开发--02.环境准备

一.准备三台linux虚拟机

1.分别取名node1,node2,node3

2.配置静态ip

这里以node1为例,配置静态ip地址,其他node2.node3一样

配置完成之后别忘记 systemctl restart network

3.在各自的**/etc/hosts**文件中编辑三个Ip地址

三台都要配置,

4.然后再windows电脑的c盘windows/system32/dirver/etc/host 文件中配置以上一样的内容

最后别忘记ping 一下测试一下通讯

5.使用finalshell去链接三台虚拟机

5**.虚拟机之间免密登录**

到此为止,准备工作已经完成!

6.问题

在之前的测试时,发现虚拟机设置完static静态ip地址之后无法ping通外网,在网上查找了资料发现都无法解决,最后发现了终极解决方法:

在虚拟机设置里面新添加一个网络适配器

这样就完美解决了问题,可以ping 通外网了!

二.安装jdk

我们的hadoop是基于java语言编写的,所以我们需要再三台虚拟机上安装jdk:

1.可以取官网下载jdk的linux安装包

2.可以将提供的jdk安装包上传到虚拟机上面

1.创建 /export/server 目录

2.将jdk压缩包上传到该目录下面

3.解压jdk压缩包

4.构建软连接 ln -s jak1.8 jdk

5.在**/etc/profile**中配置jdk环境变量

bash 复制代码
export JAVA_HOME=/export/server/jdk
export PATH=$PATH:$JAVA_HOME/bin

6.使环境变量生效

bash 复制代码
source /etc/profile

7.删除自带的java构建安装的java

bash 复制代码
#删除自带java
rm -f /usr/bin/java
#构建安装的java
ln -s /export/server/jdk/bin/java /usr/bin/java

8.使用java -version测试版本

到这一步我们的jdk就安装好了,记得一定是三个机器都要执行一遍

三.关闭防火墙和安全模块

到目前为止,准备工作全部完成,下一节我们来安装hadoop!

相关推荐
Yogurt_cry4 小时前
[树莓派4B] 闲置近10年的爱普生 L310 打印机爆改无线打印机
linux·物联网·树莓派
代码匠心17 小时前
从零开始学Flink:Flink SQL四大Join解析
大数据·flink·flink sql·大数据处理
Johny_Zhao1 天前
OpenClaw中级到高级教程
linux·人工智能·信息安全·kubernetes·云计算·yum源·系统运维·openclaw
Sheffield2 天前
Docker的跨主机服务与其对应的优缺点
linux·网络协议·docker
武子康2 天前
大数据-242 离线数仓 - DataX 实战:MySQL 全量/增量导入 HDFS + Hive 分区(离线数仓 ODS
大数据·后端·apache hive
Sheffield2 天前
Alpine是什么,为什么是Docker首选?
linux·docker·容器
SelectDB3 天前
易车 × Apache Doris:构建湖仓一体新架构,加速 AI 业务融合实践
大数据·agent·mcp
Johny_Zhao3 天前
centos7安装部署openclaw
linux·人工智能·信息安全·云计算·yum源·系统运维·openclaw
haibindev3 天前
在 Windows+WSL2 上部署 OpenClaw AI员工的实践与踩坑
linux·wsl2·openclaw