linux安装hadoop详细步骤

以下是在Linux系统上安装Hadoop的详细步骤:

  1. 下载Hadoop文件

    在Hadoop官方网站上下载最新的稳定版本的Hadoop文件。下载地址:https://hadoop.apache.org/releases.html

  2. 解压Hadoop文件

    打开终端,使用以下命令将下载的Hadoop文件解压到指定目录:

    复制代码
    tar -xzvf hadoop-X.X.X.tar.gz -C /usr/local/
  3. 配置环境变量

    打开终端,使用以下命令打开配置文件:

    复制代码
    sudo nano ~/.bashrc

    在配置文件里添加以下内容:

    复制代码
    # Hadoop相关路径配置
    export HADOOP_HOME=/usr/local/hadoop-X.X.X
    export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
    export HADOOP_MAPRED_HOME=$HADOOP_HOME
    export HADOOP_COMMON_HOME=$HADOOP_HOME
    export HADOOP_HDFS_HOME=$HADOOP_HOME
    export YARN_HOME=$HADOOP_HOME

    保存并关闭配置文件,然后运行以下命令使配置生效:

    复制代码
    source ~/.bashrc
  4. 配置Hadoop

    进入Hadoop安装目录,并编辑配置文件:

    复制代码
    cd /usr/local/hadoop-X.X.X/etc/hadoop/
    sudo nano hadoop-env.sh

    将以下代码行:

    复制代码
    export JAVA_HOME=${JAVA_HOME}

    修改为:

    复制代码
    export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64

    保存并关闭文件。

  5. 配置Hadoop集群

    打开core-site.xml文件:

    复制代码
    sudo nano core-site.xml

    在<configuration>和</configuration>之间添加以下内容:

    复制代码
    <property>
      <name>fs.defaultFS</name>
      <value>hdfs://localhost:9000</value>
    </property>
    <property>
      <name>hadoop.tmp.dir</name>
      <value>/usr/local/hadoop-X.X.X/tmp</value>
    </property>

    保存并关闭文件。

  6. 配置HDFS

    打开hdfs-site.xml文件:

    复制代码
    sudo nano hdfs-site.xml

    在<configuration>和</configuration>之间添加以下内容:

    复制代码
    <property>
      <name>dfs.replication</name>
      <value>1</value>
    </property>
    <property>
      <name>dfs.namenode.name.dir</name>
      <value>file:/usr/local/hadoop-X.X.X/hadoop_data/hdfs/namenode</value>
    </property>
    <property>
      <name>dfs.datanode.data.dir</name>
      <value>file:/usr/local/hadoop-X.X.X/hadoop_data/hdfs/datanode</value>
    </property>

    保存并关闭文件。

  7. 配置YARN

    打开yarn-site.xml文件:

    复制代码
    sudo nano yarn-site.xml

    在<configuration>和</configuration>之间添加以下内容:

    复制代码
    <property>
      <name>yarn.nodemanager.aux-services</name>
      <value>mapreduce_shuffle</value>
    </property>
    <property>
      <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
      <value>org.apache.hadoop.mapred.ShuffleHandler</value>
    </property>
    <property>
      <name>yarn.resourcemanager.hostname</name>
      <value>localhost</value>
    </property>

    保存并关闭文件。

  8. 格式化Hadoop文件系统

    运行以下命令:

    复制代码
    hdfs namenode -format
  9. 启动Hadoop集群

    运行以下命令:

    复制代码
    start-dfs.sh
    start-yarn.sh

    您可以使用以下命令检查Hadoop是否成功启动:

    复制代码
    jps

    如果一切正常,应该能够看到NameNode、DataNode、ResourceManager和NodeManager等进程。

现在,Hadoop已经成功安装在您的Linux系统上。

相关推荐
UP_Continue23 分钟前
Linux--UDP/TCP客户端与服务端模拟实现计算器原理
linux·tcp/ip·udp
FightingHg34 分钟前
和claude、openclaw交互的一些杂七杂八记录
linux·运维·服务器
深念Y41 分钟前
魅蓝Note5 Root + 改内核激活命名空间:让Docker跑在安卓上
android·linux·服务器·docker·容器·root·服务
新兴AI民工1 小时前
【Linux内核二十五】进程管理模块:CFS调度器pick_next_task_fair(一):pick_next_task_fair方法
linux·linux内核
我是一个对称矩阵1 小时前
分区安装Ubuntu系统
linux·运维·ubuntu
小捏哩1 小时前
死锁检测组件的设计
linux·网络·数据结构·c++·后端
培小新1 小时前
【容器编排工具Docker Compose】
运维·docker·容器
mzhan0171 小时前
Linux: sched: pick_next_task_fair 这个函数的功能
linux·运维·算法
认真的薛薛1 小时前
JVM和pod内存关系
linux·运维·jvm
一点事1 小时前
docker:生产环境部署kkfileview文件预览
运维·docker·容器