centos7服务器 Java和Hadoop安装教程,用VMware和finalshell

以下是基于搜索结果整理的在 CentOS 7 服务器上安装 Java 和 Hadoop 的详细教程,使用 VMware 和 FinalShell 进行操作:


一、在 VMware 中安装 CentOS 7

  1. 下载软件

    • 下载 VMware WorkstationVMware Player
    • 下载 CentOS 7 ISO 镜像
  2. 安装 VMware

    • 运行 VMware 安装程序并完成安装。
  3. 创建虚拟机

    • 启动 VMware,点击"创建新的虚拟机",选择"典型"配置。
    • 选择"安装程序光盘映像文件",并指定 CentOS 7 ISO 文件。
    • 设置虚拟机名称和安装位置,分配至少 20GB 磁盘空间。
    • 自定义硬件配置:分配至少 2GB 内存和 2 个 CPU 核心。
  4. 安装 CentOS 7

    • 启动虚拟机,选择"Install CentOS 7"。
    • 选择语言和键盘布局,设置时区为上海。
    • 选择"最小安装",手动分区(根分区 / 至少 15GB,交换分区 swap 与内存大小相当)。
    • 设置主机名和网络适配器,确保网络可用。
    • 安装完成后重启虚拟机。

二、配置 Java 开发环境

  1. 更新系统

    bash 复制代码
    sudo yum update -y
  2. 安装 Java

    bash 复制代码
    sudo yum install -y java-1.8.0-openjdk-devel
  3. 设置环境变量

    • 编辑 ~/.bashrc 文件,添加以下内容:

      bash 复制代码
      export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk
      export PATH=$JAVA_HOME/bin:$PATH
    • 执行 source ~/.bashrc 使配置生效。

  4. 验证 Java 安装

    bash 复制代码
    java -version

三、安装 Hadoop

  1. 下载 Hadoop

    bash 复制代码
    wget https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop-3.3.5/hadoop-3.3.5.tar.gz
  2. 解压 Hadoop

    bash 复制代码
    tar -zxvf hadoop-3.3.5.tar.gz -C /opt/hadoop/
  3. 配置 Hadoop 环境变量

    • 编辑 ~/.bash_profile 文件,添加以下内容:

      bash 复制代码
      export HADOOP_HOME=/opt/hadoop/hadoop-3.3.5
      export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
    • 执行 source ~/.bash_profile

  4. 配置 Hadoop

    • 进入配置目录:

      bash 复制代码
      cd /opt/hadoop/hadoop-3.3.5/etc/hadoop
    • 配置 hadoop-env.sh

      bash 复制代码
      export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk
    • 配置 core-site.xml

      xml 复制代码
      <configuration>
        <property>
          <name>fs.defaultFS</name>
          <value>hdfs://localhost:9000</value>
        </property>
      </configuration>
    • 配置 hdfs-site.xml

      xml 复制代码
      <configuration>
        <property>
          <name>dfs.replication</name>
          <value>1</value>
        </property>
        <property>
          <name>dfs.namenode.name.dir</name>
          <value>/opt/hadoop/hadoop-3.3.5/hdfs/namenode</value>
        </property>
        <property>
          <name>dfs.datanode.data.dir</name>
          <value>/opt/hadoop/hadoop-3.3.5/hdfs/datanode</value>
        </property>
      </configuration>
    • 配置 mapred-site.xml

      xml 复制代码
      <configuration>
        <property>
          <name>mapreduce.framework.name</name>
          <value>yarn</value>
        </property>
      </configuration>
    • 配置 yarn-site.xml

      xml 复制代码
      <configuration>
        <property>
          <name>yarn.resourcemanager.hostname</name>
          <value>localhost</value>
        </property>
      </configuration>
    • 配置 workers 文件

      bash 复制代码
      localhost
  5. 格式化 HDFS

    bash 复制代码
    hdfs namenode -format
  6. 启动 Hadoop

    bash 复制代码
    start-dfs.sh
    start-yarn.sh

四、使用 FinalShell 进行文件传输和管理

  1. 安装 FinalShell

    • 下载并安装 FinalShell。
  2. 连接 CentOS 7 服务器

    • 打开 FinalShell,输入服务器的 IP 地址、用户名和密码。
  3. 文件传输

    • 在 FinalShell 的文件管理器中,将 JDK 和 Hadoop 压缩包拖入服务器的指定目录(如 /opt/module)。
  4. 解压文件

    bash 复制代码
    tar -zxvf jdk-8u202-linux-x64.tar.gz -C /opt/module/
    tar -zxvf hadoop-3.3.5.tar.gz -C /opt/module/
  5. 配置环境变量

    • /etc/profile.d/ 下创建 my_env.sh 文件,添加 Java 和 Hadoop 的环境变量。

五、验证安装

  1. 验证 Java

    bash 复制代码
    java -version
  2. 验证 Hadoop

    • 访问 Hadoop 的 Web UI:
      • NameNode:http://<服务器IP>:9870
      • ResourceManager:http://<服务器IP>:8088

通过以上步骤,你可以在 CentOS 7 服务器上成功安装并配置 Java 和 Hadoop。如果需要搭建 Hadoop 集群,可以参考类似的步骤在多台虚拟机上进行配置。

相关推荐
Tender_光6 分钟前
DNS域名解析服务
运维·服务器
白总Server8 分钟前
Nginx 中间件
大数据·linux·运维·服务器·nginx·bash·web
lllsure3 小时前
SpringCloud——负载均衡
服务器·网络·spring cloud
用户867132495743 小时前
5 个开源 MCP 服务器,让您的 AI 代理势不可挡
服务器
杨凯凡3 小时前
Linux安全防护:全方位服务安全配置指南
linux·运维·服务器·安全
Nightwish53 小时前
Linux随记(十七)
linux·运维·服务器
IT成长日记3 小时前
【Hive入门】Hive分区与分桶深度解析:优化查询性能的关键技术
数据仓库·hive·hadoop·分区·分桶
Faith_xzc4 小时前
Hive 数据同步到 Doris 最佳实践方案:从场景适配到性能调优全解析
大数据·数据仓库·hive·hadoop·doris
酷爱码4 小时前
hive默认的建表格式
数据仓库·hive·hadoop
Hadoop_Liang4 小时前
Hive 多表查询案例
数据仓库·hive·hadoop