Hadoop入门基础(二):Hadoop集群安装与部署详解(超详细教程)

一、环境准备

1. 集群规划

首先,需要为集群中的每台机器设置角色和网络配置。在此示例中,我们使用三台机器:

角色 主机名 IP地址
NameNode master 192.168.1.101
DataNode1 slave1 192.168.1.102
DataNode2 slave2 192.168.1.103

2. 软件要求

  • 操作系统:CentOS 7或Ubuntu 20.04
  • Java JDK:Hadoop需要JDK 8或更高版本
安装Java JDK

在所有节点上安装Java:

bash 复制代码
sudo apt-get update  # Ubuntu
sudo apt-get install openjdk-8-jdk -y

# 或者在CentOS上
sudo yum install java-1.8.0-openjdk-devel -y

验证Java安装:

bash 复制代码
java -version

3. 配置SSH免密登录

为了让Hadoop可以在各节点之间无缝通信,需要在master节点上配置SSH免密登录。

在master节点上生成SSH密钥对:
bash 复制代码
ssh-keygen -t rsa -P "" -f ~/.ssh/id_rsa

将公钥复制到所有节点:

bash 复制代码
ssh-copy-id master
ssh-copy-id slave1
ssh-copy-id slave2

测试免密登录是否成功:

bash 复制代码
ssh slave1
ssh slave2

二、下载并安装Hadoop

1. 下载Hadoop

在所有节点上下载Hadoop安装包:

bash 复制代码
wget https://downloads.apache.org/hadoop/common/hadoop-3.3.6/hadoop-3.3.6.tar.gz
tar -xzvf hadoop-3.3.6.tar.gz --no-check-certificate
sudo mv hadoop-3.3.6 /usr/local/hadoop

2. 配置环境变量

在每个节点的~/.bashrc文件中添加以下内容:

bash 复制代码
export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64  # 根据实际路径调整
export HADOOP_HOME=/usr/local/hadoop
export HADOOP_INSTALL=$HADOOP_HOME
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export HADOOP_YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin

执行以下命令使配置生效:

bash 复制代码
source ~/.bashrc

四、修改Hadoop配置文件

在master节点上修改配置文件,然后将修改后的配置文件分发(文末有分发脚本)到所有节点。

1. 配置core-site.xml

编辑$HADOOP_HOME/etc/hadoop/core-site.xml

XML 复制代码
<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://master:9000</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/usr/local/hadoop/tmp</value>
        <description>A base for other temporary directories.</description>
    </property>
</configuration>

2. 配置hdfs-site.xml

编辑$HADOOP_HOME/etc/hadoop/hdfs-site.xml

XML 复制代码
<configuration>
    <property>
        <name>dfs.replication</name>
        <value>2</value>
    </property>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>file:///usr/local/hadoop/hadoop_data/hdfs/namenode</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>file:///usr/local/hadoop/hadoop_data/hdfs/datanode</value>
    </property>
</configuration>

3. 配置yarn-site.xml

编辑$HADOOP_HOME/etc/hadoop/yarn-site.xml

XML 复制代码
<configuration>
    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>master</value>
    </property>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
</configuration>

4. 配置mapred-site.xml

复制默认模板并进行修改:

bash 复制代码
cp $HADOOP_HOME/etc/hadoop/mapred-site.xml.template $HADOOP_HOME/etc/hadoop/mapred-site.xml

编辑mapred-site.xml

XML 复制代码
<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>

5. 配置slaves文件

编辑$HADOOP_HOME/etc/hadoop/slaves文件,列出所有DataNode节点:

bash 复制代码
slave1
slave2

6. 分发配置文件到所有节点

将配置好的Hadoop文件夹分发到所有节点:

bash 复制代码
scp -r /usr/local/hadoop slave1:/usr/local/
scp -r /usr/local/hadoop slave2:/usr/local/

五、启动Hadoop集群

1. 格式化HDFS

在master节点上运行以下命令来格式化HDFS:

bash 复制代码
hdfs namenode -format

2. 启动HDFS和YARN

依次启动HDFS和YARN服务:

bash 复制代码
start-dfs.sh
start-yarn.sh

3. 验证集群状态

启动Hadoop之后,可以通过Web界面查看集群状态:

  • NameNode UI : http://master:9870
  • ResourceManager UI : http://master:8088

4. 验证节点连通性

在master节点上,执行以下命令以检查节点状态:

bash 复制代码
hdfs dfsadmin -report
yarn node -list

六、测试集群

运行Hadoop提供的示例程序,验证集群是否正常工作:

bash 复制代码
hadoop jar $HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.6.jar wordcount /input /output

验证输出结果

查看生成的结果文件:

bash 复制代码
hdfs dfs -cat /output/part-r-00000

七、总结

本文涵盖了从设置主机名、配置SSH免密登录、安装Java环境到Hadoop配置与启动的详细步骤。通过这些步骤,你可以成功搭建一个Hadoop集群,为大数据学习和实际应用打下坚实的基础。下一步,你可以尝试

配置高可用性或对集群进行性能优化。

八、附录

分发脚本

bash 复制代码
#!/bin/bash

if [ $# -lt 1 ]
then
  echo Not Enough Arguemnet!
  exit;
fi

for host in 10.0.13.239 10.0.13.253 10.0.13.196
do
  echo =============== $host =================
  for file in $@
  do 
    if [ -e $file ]
      then
        pdir=$(cd -P $(dirname $file); pwd)
        fname=$(basename $file)
        ssh -p 36000 $host "mkdir -p $pdir"
        rsync  -e 'ssh -p 36000' -av $pdir/$fname $host:$pdir
      else
        echo $file does not exists!
    fi
  done
done
相关推荐
科研前沿6 小时前
镜像视界 CameraGraph™+多智能体:构建自感知自决策的全域空间认知网络技术方案
大数据·运维·人工智能·数码相机·计算机视觉
发哥来了6 小时前
AI视频生成模型选型指南:五大核心维度对比评测
大数据·人工智能·机器学习·ai·aigc
发哥来了6 小时前
AI驱动生产线的实际落地:一个东莞厂商的技术选型实录
大数据·人工智能·机器学习·ai·aigc
历程里程碑8 小时前
4 Git远程协作:从零开始,玩转仓库关联与代码同步(带实操代码讲解)
大数据·c++·git·elasticsearch·搜索引擎·gitee·github
AI周红伟8 小时前
周红伟:运营商一季度净利集体下滑 Token运营提速
大数据·网络·人工智能
无忧智库9 小时前
研发管理的下一个十年:当多Agent协同遇上知识图谱,传统项目管理体系正在被颠覆(WORD)
大数据·人工智能·知识图谱
汽车仪器仪表相关领域10 小时前
Kvaser Memorator Professional 5xHS CB:五通道CAN FD裸板记录仪,赋能多总线系统集成测试的旗舰级核心装备
大数据·网络·人工智能·单元测试·汽车·集成测试
gQ85v10Db11 小时前
Redis分布式锁进阶第十七篇:微服务分布式锁全局治理 + 跨团队统一规范落地 + 全链路稳定性提升方案
redis·分布式·微服务
头条快讯12 小时前
中国非遗美食文化的跨国传承:鲁味居在北美市场的标准化实践与布局
大数据·人工智能
我是发哥哈13 小时前
深度评测:五款主流AI培训平台的课程交付能力对比
大数据·人工智能·学习·机器学习·ai·chatgpt