Hadoop运行环境搭建

模板虚拟机环境准备

1)准备一台模板虚拟机hadoop100,虚拟机配置要求如下:

模板虚拟机:内存4G,硬盘50G,安装必要环境,为安装hadoop做准备

bash 复制代码
[root@hadoop100 ~]# yum install -y epel-release
[root@hadoop100 ~]# yum install -y psmisc nc net-tools rsync vim lrzsz ntp libzstd openssl-static tree iotop git

这个命令安装了一系列有用的工具和库

使用yum安装需要虚拟机可以正常上网,yum安装前可以先测试下虚拟机联网情况。

bash 复制代码
[root@hadoop100 ~]# ping www.baidu.com
PING www.baidu.com (14.215.177.39) 56(84) bytes of data.
64 bytes from 14.215.177.39 (14.215.177.39): icmp_seq=1 ttl=128 time=8.60 ms
64 bytes from 14.215.177.39 (14.215.177.39): icmp_seq=2 ttl=128 time=7.72 ms

2)关闭防火墙,关闭防火墙开机自启

bash 复制代码
[root@hadoop100 ~]# systemctl stop firewalld
[root@hadoop100 ~]# systemctl disable firewalld

3)创建atguigu用户,并修改atguigu用户的密码

bash 复制代码
[root@hadoop100 ~]# useradd atguigu
[root@hadoop100 ~]# passwd 000000

4)配置atguigu用户具有root权限,方便后期加sudo执行root权限的命令

bash 复制代码
[root@hadoop100 ~]# vim /etc/sudoers

修改/etc/sudoers文件,找到下面一行(91行),在root下面添加一行,如下所示:

bash 复制代码
## Allow root to run any commands anywhere
root    ALL=(ALL)     ALL
atguigu   ALL=(ALL)     NOPASSWD:ALL

5)在/opt目录下创建文件夹,并修改所属主和所属组

(1)在/opt目录下创建module、software文件夹

bash 复制代码
[root@hadoop100 ~]# mkdir /opt/module
[root@hadoop100 ~]# mkdir /opt/software

​ (2)修改module、software文件夹的所有者和所属组均为atguigu用户

bash 复制代码
[root@hadoop100 ~]# chown atguigu:atguigu /opt/module 
[root@hadoop100 ~]# chown atguigu:atguigu /opt/software

(3)查看module、software文件夹的所有者和所属组

bash 复制代码
[root@hadoop100 ~]# cd /opt/
[root@hadoop100 opt]# ll
总用量 12
drwxr-xr-x. 2 atguigu atguigu 4096 5月 28 17:18 module
drwxr-xr-x. 2 root  root  4096 9月  7 2017 rh
drwxr-xr-x. 2 atguigu atguigu 4096 5月 28 17:18 software

6)卸载虚拟机自带的open JDK

bash 复制代码
[root@hadoop100 ~]# rpm -qa | grep -i java | xargs -n1 rpm -e --nodeps

7)重启虚拟机

bash 复制代码
[root@hadoop100 ~]# reboot

克隆虚拟机

1)利用模板机hadoop100,克隆三台虚拟机:hadoop102 hadoop103 hadoop104

2)修改克隆机IP,以下以hadoop102举例说明

修改克隆虚拟机的静态IP

bash 复制代码
[root@hadoop100 ~]# vim /etc/sysconfig/network-scripts/ifcfg-ens33

改成【第一行是修改源文件,其余结尾添加】

bash 复制代码
BOOTPROTO=static
IPADDR=192.168.222.102
GATEWAY=192.168.222.2
DNS1=192.168.222.2

3)修改克隆机主机名,以下以hadoop102举例说明

(1)修改/etc/hostname文件

bash 复制代码
[root@hadoop100 ~]# vim /etc/hostname
hadoop102

(2)配置linux克隆机主机名称映射hosts文件,打开/etc/hosts

bash 复制代码
[root@hadoop100 ~]# vim /etc/hosts

添加如下内容

bash 复制代码
192.168.1.100 hadoop100
192.168.1.101 hadoop101
192.168.1.102 hadoop102
192.168.1.103 hadoop103
192.168.1.104 hadoop104
192.168.1.105 hadoop105
192.168.1.106 hadoop106
192.168.1.107 hadoop107
192.168.1.108 hadoop108

4**)重启克隆机hadoop102**

bash 复制代码
[root@hadoop100 ~]# reboot

安装JDK

1)卸载现有JDK

bash 复制代码
[atguigu@hadoop102 ~]$ rpm -qa | grep -i java | xargs -n1 sudo rpm -e --nodeps

2)在Linux系统下的opt目录中查看软件包是否导入成功

bash 复制代码
[atguigu@hadoop102 ~]$ ls /opt/software/

看到如下结果:

bash 复制代码
hadoop-3.1.3.tar.gz jdk-8u212-linux-x64.tar.gz

3)解压JDK到/opt/module目录下

bash 复制代码
[atguigu@hadoop102 software]$ tar -zxvf jdk-8u212-linux-x64.tar.gz -C /opt/module/

4**)配置JDK****环境变量**

​ (1)新建/etc/profile.d/my_env.sh文件

bash 复制代码
[atguigu@hadoop102 ~]$ sudo vim /etc/profile.d/my_env.sh

添加如下内容如果不理解,点击这里

bash 复制代码
#JAVA_HOME
export JAVA_HOME=/opt/module/jdk1.8.0_212
export PATH=$PATH:$JAVA_HOME/bin

​ (2)保存后退出

​ (3)source一下/etc/profile文件,让新的环境变量PATH生效

bash 复制代码
[atguigu@hadoop102 ~]$ source /etc/profile

5)测试JDK是否安装成功

bash 复制代码
[atguigu@hadoop102 ~]$ java -version

如果能看到以下结果,则代表Java安装成功。

java version "1.8.0_212"

注意:重启(如果java -version可以用就不用重启)

bash 复制代码
[atguigu@hadoop102 ~]$ sudo reboot

Hadoop目录结构

1)查看Hadoop目录结构

bash 复制代码
[atguigu@hadoop102 hadoop-3.1.3]$ ll
总用量 52
drwxr-xr-x. 2 atguigu atguigu  4096 5月  22 2017 bin
drwxr-xr-x. 3 atguigu atguigu  4096 5月  22 2017 etc
drwxr-xr-x. 2 atguigu atguigu  4096 5月  22 2017 include
drwxr-xr-x. 3 atguigu atguigu  4096 5月  22 2017 lib
drwxr-xr-x. 2 atguigu atguigu  4096 5月  22 2017 libexec
-rw-r--r--. 1 atguigu atguigu 15429 5月  22 2017 LICENSE.txt
-rw-r--r--. 1 atguigu atguigu   101 5月  22 2017 NOTICE.txt
-rw-r--r--. 1 atguigu atguigu  1366 5月  22 2017 README.txt
drwxr-xr-x. 2 atguigu atguigu  4096 5月  22 2017 sbin

2)重要目录

(1)bin目录:存放对Hadoop相关服务(HDFS,YARN)进行操作的脚本

(2)etc目录:Hadoop的配置文件目录,存放Hadoop的配置文件

(3)lib目录:存放Hadoop的本地库(对数据进行压缩解压缩功能)

(4)sbin目录:存放启动或停止Hadoop相关服务的脚本

(5)share目录:存放Hadoop的依赖jar包、文档、和官方案例

安装Hadoop

1)进入到Hadoop安装包路径下

bash 复制代码
[atguigu@hadoop102 ~]$ cd /opt/software/

2)解压安装文件到/opt/module下面

bash 复制代码
[atguigu@hadoop102 software]$ tar -zxvf hadoop-3.1.3.tar.gz -C /opt/module/

3)查看是否解压成功

bash 复制代码
[atguigu@hadoop102 software]$ ls /opt/module/
hadoop-3.1.3

4)将Hadoop添加到环境变量

​ (1)获取Hadoop安装路径

bash 复制代码
[atguigu@hadoop102 hadoop-3.1.3]$ pwd
/opt/module/hadoop-3.1.3

​ (2)打开/etc/profile.d/my_env.sh文件

bash 复制代码
sudo vim /etc/profile.d/my_env.sh

在my_env.sh文件末尾添加如下内容:(shift+g)

bash 复制代码
#HADOOP_HOME
export HADOOP_HOME=/opt/module/hadoop-3.1.3
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin

(3)保存后退出

(4)让修改后的文件生效

bash 复制代码
[atguigu@hadoop102 hadoop-3.1.3]$ source /etc/profile

5)测试是否安装成功

bash 复制代码
[atguigu@hadoop102 hadoop-3.1.3]$ hadoop version
Hadoop 3.1.3
相关推荐
yumgpkpm44 分钟前
CMP平台(类Cloudera CDP7.3)在华为鲲鹏的Aarch64信创环境中的性能表现
大数据·flink·kafka·big data·flume·cloudera
大数据CLUB44 分钟前
基于spark的抖音短视频数据分析及可视化
大数据·hadoop·分布式·数据分析·spark
yumgpkpm1 小时前
大数据综合管理平台(CMP)(类Cloudera CDP7.3)有哪些核心功能?
hive·hadoop·elasticsearch·zookeeper·big data
一键三联啊1 小时前
【GIT】错误集锦及解决方案
大数据·elasticsearch·搜索引擎
板凳坐着晒太阳1 小时前
Hive 删除分区语句卡死问题
数据仓库·hive·hadoop
武子康2 小时前
大数据-124 - Flink State:Keyed State、Operator State KeyGroups 工作原理 案例解析
大数据·后端·flink
vxtkjzxt8883 小时前
手机群控软件在游戏运营中的行为模拟技术实践
大数据
铭毅天下3 小时前
Codebuddy 实现:云端 Elasticsearch 到 本地 Easysearch 跨集群迁移 Python 小工具
大数据·elasticsearch·搜索引擎·全文检索
青云交3 小时前
Java 大视界 -- Java 大数据在智慧交通自动驾驶仿真与测试数据处理中的应用
java·大数据·自动驾驶·数据存储·算法优化·智慧交通·测试数据处理
观远数据4 小时前
A Blueberry 签约观远数据,观远BI以一站式现代化驱动服饰企业新增长
大数据·数据库·人工智能·数据分析