一、Hadoop初始化配置(final+ubuntu保姆级教程)

1、配置虚拟机

三台虚拟机,分别为node1、node2、node3,内存分别为4G、2G、2G,现存最好为(>40G),如下:

2、修改主机名

分别打开三台虚拟机,root用户输入一下命令:

cs 复制代码
node1虚拟机输入:
hostnamectl set-hostname node1
node2虚拟机输入:
hostnamectl set-hostname node2
node3虚拟机输入:
hostnamectl set-hostname node3

3、验证

输入完成之后,刷新cmd窗口,可以看到主机名发生变化:

4、修改配置文件

(1)图形化界面修改

设置-》网络-》点击-》将ipv4调整为手动-》修改地址、子网掩码、网关、dns

(2)重启网络设置

先开关按钮,再重启网络:

cs 复制代码
sudo systemctl restart NetworkManager.service

(3)查看修改结果

5、修改主机的host文件

找到C盘下的如下目录:

css 复制代码
C:\Windows\System32\drivers\etc

打开第一个hosts文件,在文件末尾输入三台虚拟机的IP地址,然后保存,分别为:

objectivec 复制代码
192.168.88.101 node1
192.168.88.102 node2
192.168.88.103 node3

6、finall shell连接

(1)建立连接

因为已经在windows中配置过node1,所以这里主机名只需要输入node1即可,不需要输入IP地址。

(2)关闭防火墙

cs 复制代码
sudo ufw disable

(3)配置ssh

cs 复制代码
安装ssh服务器
sudo apt install openssh-server
安装ssh客户端
sudo apt install openssh-client

(4)配置root密码

当你按照(1)中步骤连接时,会不断弹出密码框,这是因为在初始化Ubuntu时,我们只赋予了普通用户密码,并没有给与root用户密码,我们需要在Ubuntu中配置root用户密码:

cpp 复制代码
sudo passwd root

(5)修改配置文件

在root用户下,进入如下配置文件:

cs 复制代码
vim /etc/ssh/sshd_config

找到PermitRootLogin......这一行:

在这一行的下面添加如下语句:

bash 复制代码
PermitRootLogin yes

(6)重启ssh服务

cs 复制代码
systemctl restart sshd

(7)完成链接

7、修改Ubuntu中的hosts文件

(1)进入目录

cpp 复制代码
vim /etc/hosts

(2)加入如下内容

cs 复制代码
192.168.88.101 node1
192.168.88.102 node2
192.168.88.103 node3

8、为root用户创建ssh免密登录配置

(1)配置

(2)生成密钥

输入如下语句,一路回车即可:

cpp 复制代码
 ssh-keygen -t rsa -b 4096

(3)验证

(4)授权免密登录

在node1下执行如下语句,这里以node1中执行为例

·node1到node1免密登录

cs 复制代码
ssh-copy-id node1

·node1到node2免密登录

cs 复制代码
ssh-copy-id node2

·node1到node3免密登录

cs 复制代码
ssh-copy-id node3

9、为普通用户创建ssh免密登录

(1)为三台虚拟机创建hadoop用户

adduser:会自动为创建的用户指定主目录、系统shell版本,会在创建时输入用户密码。

useradd:需要使用参数选项指定上述基本设置,如果不使用任何参数,则创建的用户无密码、无主目录、没有指定shell版本。

这里强烈建议使用adduser,否则会在生成密钥时,出现"文件不存在报错"

cs 复制代码
adduser hadoop

(2)将三台虚拟机切换到hadoop用户

cs 复制代码
su hadoop

(3)生成密钥

一直回车键即可,记着,三台虚拟机都要再生成一次密钥

cs 复制代码
ssh-keygen -t rsa -b 4096

(4)授权免密登录

这里请参考8、(4)进行操作

10、配置java的JDK

(1)创建目录

(2)上传文件和解压

安装rz,上传压缩包

解压文件

cs 复制代码
 tar -zxvf jdk-8u391-linux-x64.tar.gz -C /export/server/

验证

(3)创建软连接

css 复制代码
ln -s /export/server/jdk1.8.0_391 jdk

(4)修改配置文件

css 复制代码
vim /etc/profile
在配置文件中加入:
export JAVA_HOME=/export/server/jdk
export PATH=$PATH:$JAVA_HOME/bin

刷新

cs 复制代码
 source /etc/profile

验证:

(5)删除操作系统自带的java

css 复制代码
rm -f /usr/bin/java

(6)将刚刚下载java软连接到usr的bin文件中

css 复制代码
ln -s /export/server/jdk/bin/java /usr/bin/java

验证

11、关闭防火墙和SELinux

(1)下载防火墙

css 复制代码
apt install firewalld

(2)关闭防火墙

cs 复制代码
systemctl stop firewalld
Dart 复制代码
 systemctl disable firewalld

(3)关闭selinux

在安装selinux之后,输入如下,进入配置文件进行修改

css 复制代码
 vim /etc/selinux/config

将文件第七行进行如上修改即可

12、修改时区

(1)安装ntp

css 复制代码
apt install ntp

(2)更新时区

vbnet 复制代码
rm -f /etc/localtime;sudo ln -s /usr/share/zoneinfo/Asia/Shanghai /etc/localtime

(3)同步时间

diff 复制代码
ntpdate -u ntp.aliyun.com

(4)启动ntp

css 复制代码
systemctl status ntp
cs 复制代码
systemctl enable ntp #开机自启

(5)验证是否开机自启动

Delphi 复制代码
yang@node1:~$ systemctl is-enabled ntp
enabled
相关推荐
管理大亨31 分钟前
大数据微服务方案
大数据
脸ル粉嘟嘟1 小时前
大数据CDP集群中Impala&Hive常见使用语法
大数据·hive·hadoop
宝哥大数据1 小时前
数据仓库面试题集&离线&实时
大数据·数据仓库·spark
八荒被注册了1 小时前
6.584-Lab1:MapReduce
大数据·mapreduce
寰宇视讯2 小时前
“津彩嘉年,洽通天下” 2024中国天津投资贸易洽谈会火热启动 首届津彩生活嘉年华重磅来袭!
大数据·人工智能·生活
Hsu_kk2 小时前
Kafka 安装教程
大数据·分布式·kafka
苍老流年2 小时前
1. kafka分布式环境搭建
分布式·kafka
sj11637394032 小时前
Kafka参数了解
数据库·分布式·kafka
Hsu_kk2 小时前
Kafka Eagle 安装教程
分布式·kafka
CodingBrother2 小时前
Kafka 与 RabbitMQ 的联系
分布式·kafka·rabbitmq