Hadoop 部署

1 准备工作

  • 准备好集群环境
    详情参考博客:集群初始配置
  • 安装 Java
    1. 输入javac可查看安装提示信息。

    2. 使用命令sudo apt install openjdk-8-jdk-headless安装JDK

    3. 配置环境变量。使用sudo vim /etc/profile打开profile文件,输入以下内容,保存并退出。然后输入命令source /etc/profile使修改生效。

      shell 复制代码
      export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64
      export JRE_HOME=$JAVA_HOME/jre
      export CLASSPATH=$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH
      export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH

2 获取文件

  • 去官网https://dlcdn.apache.org/hadoop/下载文件。比如下载hadoop-3.4.0.tar.gz

  • 上传至某一个 Linux 设备上。

  • 创建目录/opt/hadoop/,或根据自己情况选择其他目录。使用以下命令解压:

    shell 复制代码
    sudo tar -zxvf hadoop-3.4.0.tar.gz -C /opt/hadoop/

3 修改配置

需要修改/opt/hadoop/etc/hadoop中的hadoop-env.sh、core-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xml 和 workers。

3.1 hadoop-env.sh

如果是按照上面方法安装的Java,可添加如下内容:

shell 复制代码
export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64
export PATH=$PATH:$JAVA_HOME/bin

export HADOOP_HOME=/opt/hadoop/hadoop-3.4.0
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin

export HADOOP_PID_DIR=$HADOOP_HOME/tmp
export HADOOP_LOG_DIR=$HADOOP_HOME/logs

然后将该文件复制到/etc/profile.d,并运行source /etc/profile使其生效。

3.1 core-site.xml

添加配置如下:

xml 复制代码
<configuration>
    <!-- 配置指定HDFS的通信地址 -->
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://node1:8020</value>
    </property>
    <!-- 配置Hadoop的临时文件存储目录。需要手动创建及修改权限。 -->
    <property>
        <name>hadoop.tmp.dir</name>
        <value>${HADOOP_PID_DIR}</value>
    </property>
    
    <!-- 配置网页登录使用的用户 -->
    <property>
        <name>hadoop.http.staticuser.user</name>
        <value>cluster</value>
    </property>
</configuration>

3.2 hdfs-site.xml

添加配置如下:

xml 复制代码
<configuration>
    <!-- 配置NameNode的http访问地址和端口号 -->
    <property>
        <name>dfs.namenode.http-address</name>
        <value>node1:9870</value>
    </property>
    <!-- 配置SecondaryNameNode的http访问地址和端口号 -->
    <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>node2:9868</value>
    </property>
    
    <!----------- 下面的可选择配置 ----------->
    
    <!-- 配置HDFS副本数量 -->
    <property>
        <name>dfs.replication</name>
        <value>3</value>
    </property>
    
    <!-- 配置NameNode存放的路径 -->
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>/opt/hadoop/hadoop-3.4.0/tmp/dfs/name</value>
    </property>
    <!-- 配置DataNode存放的路径 -->
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>/opt/hadoop/hadoop-3.4.0/tmp/dfs/data</value>
    </property>
</configuration>

3.3 mapred-site.xml

添加配置如下:

xml 复制代码
<configuration>
    <!-- 配置MapReduce运行时的框架 -->
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
    
    <!----------- 下面的可选择配置 ----------->
    
    <!-- 配置MapReduce的历史服务器安装的位置及端口号 -->
    <property>
        <name>mapreduce.jobhistory.address</name>
        <value>node3:10020</value>
    </property>
    <!-- 设置历史服务器的web页面地址和端口 -->
    <property>
        <name>mapreduce.jobhistory.webapp.address</name>
        <value>node3:19888</value>
    </property>
    
    <!-- 配置存放日志文件的临时目录 -->
    <property>
        <name>mapreduce.jobhistory.intermediate-done-dir</name>
        <value>/opt/hadoop/hadoop-3.4.0/tmp/mr-history/tmp</value>
    </property>
    <!-- 配置存放运行日志文件的最终目录 -->
    <property>
        <name>mapreduce.jobhistory.done-dir</name>
        <value>/opt/hadoop/hadoop-3.4.0/tmp/mr-history/done</value>
    </property>
</configuration>

3.4 yarn-site.xml

添加配置如下:

xml 复制代码
<configuration>
    <!-- 配置ResourceManager运行位置 -->
    <property>
        <name>yarn.resourcemanager.hostsname</name>
        <value>node3</value>
    </property>
    <!-- 配置NodeManager启动时加载server的方式 -->
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>

    <!----------- 下面的可选择配置 ----------->
    
    <!-- 配置使用mapreduce_shuffle中的类 -->
    <property>
        <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
        <value>org.apache.hadoop.mapred.ShuffleHandler</value>
    </property>
    <!-- 配置ResourceManager服务器的web地址和端口 -->
    <property>
        <name>yarn.resourcemanager.webapp.address</name>
        <value>node3:8088</value>
    </property>
    <!-- 配置配置是否启用日志聚集功能 -->
    <property>
        <name>yarn.log-aggregation-enable</name>
        <value>true</value>
    </property>
    <!-- 配置聚集的日志在HDFS上保存的最长时间 -->
    <property>
        <name>yarn.log-aggregation.retain-seconds</name>
        <value>106800</value>
    </property>
    <!-- 配置日志聚合目录 -->
    <property>
        <name>yarn.nodemanager.remote-app-log-dir</name>
        <value>/opt/hadoop/hadoop-3.4.0/logs</value>
    </property>
</configuration>

namenode、secondary namenode 和 ResourceManager 建议放在不一设备上。

3.5 workers

设置为你的设备地址。如

复制代码
node1
node2
node3

4 分发文件

经过上面的配置已经配置好文件,接下来需要把文件分发给其他设备。为了方便分发,我编写了脚本,以供使用。可参考:https://blog.csdn.net/White_Ink_/article/details/139909769

5 启动集群

在 Hadoop 根目录运行以下命令。

  • 在启动 Hadoop 集群前,需要先格式化 NameNode,在 Master 主机下操作。在下一次格式化之前,需要停止所有的 NameNode和 DateNode,并删除所有机器的 tmp 和 logs 中的文件。

    shell 复制代码
    ./bin/hdfs namenode -format
  • 启动和停止HDFS:

    shell 复制代码
    ./sbin/start-dfs.sh        #启动HDFS
    ./sbin/stop-dfs.sh         #停止HDFS
  • 启动和停止YARN:

    shell 复制代码
    ./sbin/start-yarn.sh       #启动YARN
    ./sbin/stop-yarn.sh        #停止YARN
  • 全部启动和停止:

    shell 复制代码
    ./sbin/start-all.sh        #启动HDFS和YARN
    ./sbin/stop-all.sh         #停止HDFS和YARN
  • 启动和停止历史(日志)服务器:

    shell 复制代码
    ./sbin/mr-jobhistory-daemon.sh start historyserver     #启动historyserver
    ./sbin/mr-jobhistory-daemon.sh start historyserver     #停止historyserver

6 访问

  • 访问HDFS:node1:9870
  • 访问YARN:node3:8088
相关推荐
武子康1 天前
大数据-236 离线数仓 - 会员指标验证、DataX 导出与广告业务 ODS/DWD/ADS 全流程
大数据·后端·apache hive
初次攀爬者2 天前
ZooKeeper 实现分布式锁的两种方式
分布式·后端·zookeeper
武子康2 天前
大数据-235 离线数仓 - 实战:Flume+HDFS+Hive 搭建 ODS/DWD/DWS/ADS 会员分析链路
大数据·后端·apache hive
DianSan_ERP3 天前
电商API接口全链路监控:构建坚不可摧的线上运维防线
大数据·运维·网络·人工智能·git·servlet
够快云库3 天前
能源行业非结构化数据治理实战:从数据沼泽到智能资产
大数据·人工智能·机器学习·企业文件安全
AI周红伟3 天前
周红伟:智能体全栈构建实操:OpenClaw部署+Agent Skills+Seedance+RAG从入门到实战
大数据·人工智能·大模型·智能体
B站计算机毕业设计超人3 天前
计算机毕业设计Django+Vue.js高考推荐系统 高考可视化 大数据毕业设计(源码+LW文档+PPT+详细讲解)
大数据·vue.js·hadoop·django·毕业设计·课程设计·推荐算法
计算机程序猿学长3 天前
大数据毕业设计-基于django的音乐网站数据分析管理系统的设计与实现(源码+LW+部署文档+全bao+远程调试+代码讲解等)
大数据·django·课程设计
B站计算机毕业设计超人3 天前
计算机毕业设计Django+Vue.js音乐推荐系统 音乐可视化 大数据毕业设计 (源码+文档+PPT+讲解)
大数据·vue.js·hadoop·python·spark·django·课程设计
十月南城3 天前
数据湖技术对比——Iceberg、Hudi、Delta的表格格式与维护策略
大数据·数据库·数据仓库·hive·hadoop·spark