伪分布Hadoop的安装与部署

1. 实训目标

(1)熟悉掌握使用在Linux下安装JDK。

(2)熟悉掌握使用在Linux下安装Hadoop。

(3)熟悉掌握使用配置SSH免密登录。

2. 实训环境 与软件

|--------------|-----------------|----------------------------|
| 环境 | 版本 | 说明 |
| Windows 10系统 | 64位 | 操作电脑配置 |
| VMware | 16 | 用于搭建所需虚拟机Linux系统 |
| Linux系统 | CentOS 7 | 已配置完成 |
| hadoop | 192.168.213.200 | 用于安装JDK与Hadoop伪分布式的搭建 |
| 软件 | 版本 | 说明 |
| JDK | 1.8 | jdk-8u161-linux-x64.tar.gz |
| Hadoop | 3.1.4 | hadoop-3.1.4.tar.gz |

3. 实训说明

在实际应用中,如果是做简单的测试数据不大,可以使用Hadoop伪分布式集群来运算。Hadoop伪分布式部署的步骤流程与分布式的相差不大,相对来说要更简单些。集群的配置需要具体问题具体分析,根据业务需求搭建合适的集群环境。因此,请基于Hadoop 3.1.4版本,安装并部署伪分布式Hadoop集群,巩固Hadoop集群的搭建操作,加深对Haddop的理解。

4. 实训步骤

4.1 FinalShell远程连接Linux系统

(1)使用命令"ifconfig"查看虚拟机的IP地址。

(2)打开Final shell连接Linux系统。

4.2 修改主机别名为hadoop

(1)使用hostnamectl命令设置主机别名,最后重启reboot。

java 复制代码
hostnamectl set-hostname hadoop
reboot

(2)使用命令"host"查看修改后的主机名。

(3)进入hosts文件里面添加IP与主机别名的映射关系。

java 复制代码
vi /etc/hosts
192.168.213.200 hadoop

4.3 设置SSH免密登录

(1)使用"ssh-keygen -t rsa"命令,接着按3次"Enter"键。ssh-keygen产生公钥与私钥(可以进入.ssh目录中查看,id_rsa:私钥,id_rsa.pub :公钥)。

(2)使用命令"ssh-copy-id"将公钥复制至master,输入ssh-copy-id hadoop后,输入yes和密码。

(3)验证免密登录是否成功,输入ssh hadoop命令。

4. 4 安装JDK

(1)将JDK安装包jdk-8u161-linux-x64.tar.gz上传至虚拟机master的/opt目录下,进入/opt目录下,使用"tar -zxvf jdk-8u161-linux-x64.tar.gz -C /usr/local/"命令将JDK解压安装到/usr/local目录下,具体实现如下所示。

java 复制代码
cd /opt/
tar -zxvf jdk-8u161-linux-x64.tar.gz -C /usr/local/

(2)验证JDK是否配置成功,使用"java -version"命令查看Java版本。具体实现如代码所示。

4.5 安装Hadoop ,配置jdk和hadoop的环境变量

(1)将Hadoop安装包hadoop-3.1.4.tar.gz上传至虚拟机master的/opt目录下,使用"tar -zxvf hadoop-3.1.4.tar.gz -C /usr/local"命令,将Hadoop安装包解压至master的/usr/local目录下。

java 复制代码
cd /opt/
tar -zxvf hadoop-3.1.4.tar.gz -C /usr/local/

(2)配置jdk和hadoop的环境变量。使用命令"vi /etc/profile"在hadoop节点上修改/etc/profile文件,在文件末尾添加如下代码内容,文件修改完保存退出,然后使用"source /etc/profile"命令使配置生效。

代码4.4-1 设置Jdk和Hadoop环境变量

java 复制代码
export JAVA_HOME=/usr/local/jdk1.8.0_161
export HADOOP_HOME=/usr/local/hadoop-3.1.4
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

(3)使用"source /etc/profile"命令使配置生效。

(4)使用jps和javac命令测试一下是否配置成功。

4.6 配置Hadoop相关文件

使用命令"cd /usr/local/hadoop-3.1.4/etc/hadoop/ "进入/usr/local/hadoop-3.1.4/etc/hadoop目录。依次修改core-site.xml、hadoop-env.sh、hdfs-site.xml、mapred-site.xml、yarn-site.xml共5个配置文件的内容,具体操作步骤如下。

(1)使用命令"vi core-site.xml"打开文件。hadoop.tmp.dir配置了Hadoop的临时文件的目录。添加的内容如代码4.5-1所示。

代码4.5-1 修改core-site.xml

java 复制代码
<configuration>
    <property>
    <name>fs.defaultFS</name>
      <value>hdfs://hadoop:8020</value>
      </property>
    <property>
      <name>hadoop.tmp.dir</name>
      <value>/usr/local/hadoop-3.1.4/tmp</value>
    </property>
</configuration>

(2)使用命令"**vi **hadoop-env.sh"****打开文件。hadoop-env.sh文件设置了Hadoop运行基本环境的配置,需要修改JDK所在目录。修改内容如代码4.5-2所示。

代码4.5-2 修改hadoop-env.sh

java 复制代码
export JAVA_HOME=/usr/local/jdk1.8.0_161
export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export YARN_RESOURCEMANAGER_USER=root
export YARN_NODEMANAGER_USER=root

(3)使用命令**"vi hdfs-site.xml"**打开文件。hdfs-site.xml设置了HDFS相关的配置,修改内容如代码4.5-3所示。

代码4.5-3 修改hdfs-site.xml文件

java 复制代码
<configuration>
<property>
        <name>dfs.namenode.http-address</name>
        <value>hadoop:9870</value>
    </property>
    <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>hadoop:9868</value>
</property>
</configuration>

(4)使用命令"vi mapred-site.xml ****"****打开文件,mapred-site.xml文件添加的内容如代码4.54所示。

代码4.5-4 mapred-site.xml文件添加的内容

java 复制代码
<configuration>
<property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
</property>
</configuration>

(5)使用命令"vi yarn-site.xml ****"****打开文件,yarn-site.xml文件修改的内容如代码4.5-5所示。

代码4.5-5 yarn-site.xml文件修改的内容

java 复制代码
<configuration>
<property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>

    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>hadoop</value>
</property>
</configuration>

4.7 启动Hadoop

(1)在首次启动签需要使用命令"hdfs namenode -format"格式化NameNode。

(2)格式化完成后即可启动Hadoop集群,使用命令"start-all.sh"可启动Hadoop集群。

(3)集群启动之后,使用"jps"命令,出现如下图所示的6个进程信息,说明集群启动成功。

4.8 查看HDFS对应的webUI(必须要先关闭防火墙)

首先查看防火墙的状态:firewall-cmd --state

如果防火墙为开启状态,需要关闭防火墙:systemctl stop firewalld.service

浏览器输入网址:http://192.168.25.200:9870

相关推荐
rui锐rui1 分钟前
大数据学习2:HIve
大数据·hive·学习
G皮T16 分钟前
【Elasticsearch】检索高亮
大数据·elasticsearch·搜索引擎·全文检索·kibana·检索·高亮
沉着的码农3 小时前
【设计模式】基于责任链模式的参数校验
java·spring boot·分布式
zskj_zhyl5 小时前
智慧养老丨从依赖式养老到自主式养老:如何重构晚年生活新范式
大数据·人工智能·物联网
哲科软件5 小时前
从“电话催维修“到“手机看进度“——售后服务系统开发如何重构客户体验
大数据·智能手机·重构
zzywxc7875 小时前
AI 正在深度重构软件开发的底层逻辑和全生命周期,从技术演进、流程重构和未来趋势三个维度进行系统性分析
java·大数据·开发语言·人工智能·spring
专注API从业者5 小时前
构建淘宝评论监控系统:API 接口开发与实时数据采集教程
大数据·前端·数据库·oracle
一瓣橙子7 小时前
缺少关键的 MapReduce 框架文件
大数据·mapreduce
永洪科技14 小时前
永洪科技荣获商业智能品牌影响力奖,全力打造”AI+决策”引擎
大数据·人工智能·科技·数据分析·数据可视化·bi
weixin_3077791314 小时前
Hive集群之间迁移的Linux Shell脚本
大数据·linux·hive·bash·迁移学习