linux安装hadoop详细步骤

以下是在Linux系统上安装Hadoop的详细步骤:

  1. 下载Hadoop文件

    在Hadoop官方网站上下载最新的稳定版本的Hadoop文件。下载地址:https://hadoop.apache.org/releases.html

  2. 解压Hadoop文件

    打开终端,使用以下命令将下载的Hadoop文件解压到指定目录:

    复制代码
    tar -xzvf hadoop-X.X.X.tar.gz -C /usr/local/
  3. 配置环境变量

    打开终端,使用以下命令打开配置文件:

    复制代码
    sudo nano ~/.bashrc

    在配置文件里添加以下内容:

    复制代码
    # Hadoop相关路径配置
    export HADOOP_HOME=/usr/local/hadoop-X.X.X
    export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
    export HADOOP_MAPRED_HOME=$HADOOP_HOME
    export HADOOP_COMMON_HOME=$HADOOP_HOME
    export HADOOP_HDFS_HOME=$HADOOP_HOME
    export YARN_HOME=$HADOOP_HOME

    保存并关闭配置文件,然后运行以下命令使配置生效:

    复制代码
    source ~/.bashrc
  4. 配置Hadoop

    进入Hadoop安装目录,并编辑配置文件:

    复制代码
    cd /usr/local/hadoop-X.X.X/etc/hadoop/
    sudo nano hadoop-env.sh

    将以下代码行:

    复制代码
    export JAVA_HOME=${JAVA_HOME}

    修改为:

    复制代码
    export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64

    保存并关闭文件。

  5. 配置Hadoop集群

    打开core-site.xml文件:

    复制代码
    sudo nano core-site.xml

    在<configuration>和</configuration>之间添加以下内容:

    复制代码
    <property>
      <name>fs.defaultFS</name>
      <value>hdfs://localhost:9000</value>
    </property>
    <property>
      <name>hadoop.tmp.dir</name>
      <value>/usr/local/hadoop-X.X.X/tmp</value>
    </property>

    保存并关闭文件。

  6. 配置HDFS

    打开hdfs-site.xml文件:

    复制代码
    sudo nano hdfs-site.xml

    在<configuration>和</configuration>之间添加以下内容:

    复制代码
    <property>
      <name>dfs.replication</name>
      <value>1</value>
    </property>
    <property>
      <name>dfs.namenode.name.dir</name>
      <value>file:/usr/local/hadoop-X.X.X/hadoop_data/hdfs/namenode</value>
    </property>
    <property>
      <name>dfs.datanode.data.dir</name>
      <value>file:/usr/local/hadoop-X.X.X/hadoop_data/hdfs/datanode</value>
    </property>

    保存并关闭文件。

  7. 配置YARN

    打开yarn-site.xml文件:

    复制代码
    sudo nano yarn-site.xml

    在<configuration>和</configuration>之间添加以下内容:

    复制代码
    <property>
      <name>yarn.nodemanager.aux-services</name>
      <value>mapreduce_shuffle</value>
    </property>
    <property>
      <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
      <value>org.apache.hadoop.mapred.ShuffleHandler</value>
    </property>
    <property>
      <name>yarn.resourcemanager.hostname</name>
      <value>localhost</value>
    </property>

    保存并关闭文件。

  8. 格式化Hadoop文件系统

    运行以下命令:

    复制代码
    hdfs namenode -format
  9. 启动Hadoop集群

    运行以下命令:

    复制代码
    start-dfs.sh
    start-yarn.sh

    您可以使用以下命令检查Hadoop是否成功启动:

    复制代码
    jps

    如果一切正常,应该能够看到NameNode、DataNode、ResourceManager和NodeManager等进程。

现在,Hadoop已经成功安装在您的Linux系统上。

相关推荐
yBmZlQzJ3 小时前
财运到内网穿透域名解析技术机制与中立评估
运维·经验分享·docker·容器·1024程序员节
Shanxun Liao3 小时前
Cenots 7.9 配置多台 SSH 互信登陆免密码
linux·运维·ssh
j_xxx404_3 小时前
Linux:第一个程序--进度条|区分回车与换行|行缓冲区|进度条代码两个版本|代码测试与优化
linux·运维·服务器
一点晖光3 小时前
jenkins优化记录
运维·jenkins
looking_for__4 小时前
【Linux】Ext系列文件系统
linux
最贪吃的虎4 小时前
Git: rebase vs merge
java·运维·git·后端·mysql
OliverH-yishuihan4 小时前
开发linux项目-在 Windows 上 基于“适用于 Linux 的 Windows 子系统(WSL)”
linux·c++·windows
yBmZlQzJ5 小时前
内网穿透工具通过端口转发实现内外网通信
运维·经验分享·docker·容器·1024程序员节
DeepHacking5 小时前
Overleaf 本地Docker部署
运维·docker·容器
llilian_165 小时前
总线授时卡 CPCI总线授时卡的工作原理及应用场景介绍 CPCI总线校时卡
运维·单片机·其他·自动化