大数据开发--02.环境准备

一.准备三台linux虚拟机

1.分别取名node1,node2,node3

2.配置静态ip

这里以node1为例,配置静态ip地址,其他node2.node3一样

配置完成之后别忘记 systemctl restart network

3.在各自的**/etc/hosts**文件中编辑三个Ip地址

三台都要配置,

4.然后再windows电脑的c盘windows/system32/dirver/etc/host 文件中配置以上一样的内容

最后别忘记ping 一下测试一下通讯

5.使用finalshell去链接三台虚拟机

5**.虚拟机之间免密登录**

到此为止,准备工作已经完成!

6.问题

在之前的测试时,发现虚拟机设置完static静态ip地址之后无法ping通外网,在网上查找了资料发现都无法解决,最后发现了终极解决方法:

在虚拟机设置里面新添加一个网络适配器

这样就完美解决了问题,可以ping 通外网了!

二.安装jdk

我们的hadoop是基于java语言编写的,所以我们需要再三台虚拟机上安装jdk:

1.可以取官网下载jdk的linux安装包

2.可以将提供的jdk安装包上传到虚拟机上面

1.创建 /export/server 目录

2.将jdk压缩包上传到该目录下面

3.解压jdk压缩包

4.构建软连接 ln -s jak1.8 jdk

5.在**/etc/profile**中配置jdk环境变量

bash 复制代码
export JAVA_HOME=/export/server/jdk
export PATH=$PATH:$JAVA_HOME/bin

6.使环境变量生效

bash 复制代码
source /etc/profile

7.删除自带的java构建安装的java

bash 复制代码
#删除自带java
rm -f /usr/bin/java
#构建安装的java
ln -s /export/server/jdk/bin/java /usr/bin/java

8.使用java -version测试版本

到这一步我们的jdk就安装好了,记得一定是三个机器都要执行一遍

三.关闭防火墙和安全模块

到目前为止,准备工作全部完成,下一节我们来安装hadoop!

相关推荐
dessler1 小时前
Hadoop HDFS-高可用集群部署
linux·运维·hdfs
泽泽爱旅行1 小时前
awk 语法解析-前端学习
linux·前端
武子康2 小时前
大数据-99 Spark Streaming 数据源全面总结:原理、应用 文件流、Socket、RDD队列流
大数据·后端·spark
阿里云大数据AI技术17 小时前
大数据公有云市场第一,阿里云占比47%!
大数据
Lx3521 天前
Hadoop容错机制深度解析:保障作业稳定运行
大数据·hadoop
轻松Ai享生活1 天前
5 节课深入学习Linux Cgroups
linux
christine-rr1 天前
linux常用命令(4)——压缩命令
linux·服务器·redis
三坛海会大神5551 天前
LVS与Keepalived详解(二)LVS负载均衡实现实操
linux·负载均衡·lvs
東雪蓮☆1 天前
深入理解 LVS-DR 模式与 Keepalived 高可用集群
linux·运维·服务器·lvs
乌萨奇也要立志学C++1 天前
【Linux】进程概念(二):进程查看与 fork 初探
linux·运维·服务器