ECS单机部署Hadoop

ECS单机部署Hadoop

系统准备

  • 更新系统

    复制代码
    sudo yum update -y
    sudo yum install -y wget vim net-tools openssh-server
  • 关闭防火墙

    复制代码
    sudo systemctl stop firewalld    -- 关闭防火墙
    sudo systemctl disable firewalld -- 禁止自启动
    sudo systemctl status firewalld  -- 查看防火墙的状态

安装Java

  • 安装OpenJDK 8

    复制代码
    # 安装OpenJDK 8
    sudo yum install -y java-1.8.0-openjdk-devel
  • 查看版本

    复制代码
    # 验证安装
    java -version 
  • 查看Java 安装路径

    复制代码
    # 执行命令 
    readlink -f $(which java) 
    
    # 命令输出 
    /usr/lib/jvm/java-8-konajdk-8.0.20-1.oc9/bin/java
    
    # 安装路径
    /usr/lib/jvm/java-8-konajdk-8.0.20-1.oc9

Hadoop用户

  • 创建用户

    复制代码
    # 创建用户
    sudo useradd hadoop
    sudo passwd hadoop  # 设置密码(如:hadoop)
    
    # 赋予sudo权限
    sudo echo "hadoop ALL=(ALL) NOPASSWD: ALL" >> /etc/sudoers
    
    # 切换到hadoop用户
    su - hadoop
  • 免密登录

    复制代码
    # 生成密钥(一路回车)
    ssh-keygen -t rsa
    
    # 将公钥写入授权文件
    cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
    
    # 测试免密登录
    ssh localhost  # 输入yes后应直接登录
    exit

下载安装Hadoop

  • 下载Hadoop

    复制代码
    # 下载Hadoop(以3.3.6为例)
    wget https://downloads.apache.org/hadoop/common/hadoop-3.3.6/hadoop-3.3.6.tar.gz
  • 解压Hadoop

    复制代码
    # 解压并移动到指定目录
    tar -zxvf hadoop-3.3.6.tar.gz
    sudo mv hadoop-3.3.6 /opt/hadoop
    sudo chown -R hadoop:hadoop /opt/hadoop
  • 配置环境

    1. 编辑 ~/.bashrc 文件

      复制代码
      vim ~/.bashrc
      
      # 添加以下内容
      export JAVA_HOME=/usr/lib/jvm/java-8-konajdk-8.0.20-1.oc9  -- 这里地址参照 readlink -f $(which java) 命令输出地址
      export HADOOP_HOME=/opt/hadoop
      export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
      export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib/native"
    2. 生效配置

      复制代码
      source ~/.bashrc

修改Hadoop配置

  • hadoop-env.sh

    复制代码
    vim $HADOOP_HOME/etc/hadoop/hadoop-env.sh
    # 修改JAVA_HOME
    export JAVA_HOME=/usr/lib/jvm/java-8-konajdk-8.0.20-1.oc9  -- 这里地址参照 readlink -f $(which java) 命令输出地址
  • core-site.xml

    复制代码
    <configuration>
      <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
      </property>
      <property>
        <name>hadoop.tmp.dir</name>
        <value>/opt/hadoop/tmp</value>
      </property>
    </configuration>
  • hdfs-site.xml

    复制代码
    <configuration>
      <property>
        <name>dfs.replication</name>
        <value>1</value>
      </property>
      <property>
        <name>dfs.namenode.name.dir</name>
        <value>/opt/hadoop/hdfs/namenode</value>
      </property>
      <property>
        <name>dfs.datanode.data.dir</name>
        <value>/opt/hadoop/hdfs/datanode</value>
      </property>
    </configuration>
  • mapred-site.xml

    复制代码
    <configuration>
      <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
      </property>
    </configuration>
  • yarn-site.xml

    复制代码
    <configuration>
      <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
      </property>
      <property>
        <name>yarn.nodemanager.env-whitelist</name>
        <value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME</value>
      </property>
    </configuration>

初始化HDFS

  • 创建目录

    目录参照上面配置创建

    复制代码
    # 创建目录
    mkdir -p /opt/hadoop/tmp
    mkdir -p /opt/hadoop/hdfs/{namenode,datanode}
  • 格式化NameNode

    复制代码
    # 格式化NameNode
    hdfs namenode -format

启动Hadoop

  • 启动HDFS

    复制代码
    start-dfs.sh
  • 启动Yarn

    复制代码
    start-yarn.sh
  • 查看Hadoop进程

    复制代码
    jps
    # 应看到以下进程:
    # NameNode
    # DataNode
    # ResourceManager
    # NodeManager
    # SecondaryNameNode

验证部署

  • 访问Web UI

  • 测试HDFS操作

    复制代码
    # HDFS 创建文件夹
    hdfs dfs -mkdir /test
    # HDFS 查看文件
    hdfs dfs -ls /test
    # hdfs 上传文件 
    hdfs dfs -put test.txt /test
    # hdfs 下载文件
    hdfs dfs -get /test/test.txt hdfs_test.txt
  • 运行MapReduce示例

    复制代码
    # 生成测试文件
     echo "Hello World Hello Hadoop" > input.txt
     
    # 创建input目录
    hdfs dfs -mkdir /input
    
    # 上传到测试目录
    hdfs dfs -put input.txt /input
    
    # 运行官方案例 
    hadoop jar $HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.6.jar wordcount /input /output
    
    # 查看输出结果
    hdfs dfs -cat /output/*
相关推荐
二进制_博客1 小时前
spark on hive 还是 hive on spark?
大数据·hive·spark
智海观潮1 小时前
Spark RDD详解 —— RDD特性、lineage、缓存、checkpoint、依赖关系
大数据·缓存·spark
一个会的不多的人4 小时前
数字化转型:概念性名词浅谈(第七十二讲)
大数据·人工智能·制造·数字化转型
数据智能老司机5 小时前
在 Databricks 上的 Unity Catalog 数据治理——Unity Catalog 的内部机制
大数据·架构
gb42152876 小时前
elasticsearch索引多长时间刷新一次(智能刷新索引根据数据条数去更新)
大数据·elasticsearch·jenkins
IT毕设梦工厂7 小时前
大数据毕业设计选题推荐-基于大数据的人体生理指标管理数据可视化分析系统-Hadoop-Spark-数据可视化-BigData
大数据·hadoop·信息可视化·spark·毕业设计·源码·bigdata
数在表哥8 小时前
从数据沼泽到智能决策:数据驱动与AI融合的中台建设方法论与技术实践指南(四)
大数据·人工智能
爱思德学术8 小时前
中国计算机学会(CCF)推荐学术会议-C(数据库/数据挖掘/内容检索):PAKDD 2026
大数据·机器学习·数据挖掘·知识发现
云淡风轻~~9 小时前
构建和部署Spark、Hadoop与Zeppelin集成环境
大数据·hadoop·spark
IT研究室9 小时前
大数据毕业设计选题推荐-基于大数据的人体体能活动能量消耗数据分析与可视化系统-大数据-Spark-Hadoop-Bigdata
大数据·hadoop·数据分析·spark·毕业设计·源码·bigdata