CentOS 8 安装配置 Hadoop3.3.6 伪分布式安装方式(适用于开发和调试)

1.配置服务器ssh免密登录,否则后面启动会报错:尝试通过SSH连接到主机出现认证错误的提示

配置服务器ssh免密登录:

1.生成SSH密钥对(如果尚未生成):

执行下面的命令生成密钥对,一直回车即可

复制代码
ssh-keygen -t rsa

出现下面的提示说明生成成功了:

2.第二步,将公钥添加到~/.ssh/authorized_keys文件:

复制代码
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

添加成功后我们查看 ~/.ssh/authorized_keys 文件中是否有密钥对

3.使用命令重启ssh服务

复制代码
sudo systemctl restart sshd

4.使用ssh localhost测试是否可以直接连接到本机

复制代码
ssh localhost

如果出现是否继续连接的提示输入 yes 回车即可,再次验证则直接登录,出现下面的图示则说明配置成功

2.关闭防火墙

复制代码
#查看防火墙状态

systemctl status firewalld 

#关闭防火墙

systemctl stop firewalld


#设置开机禁用防火墙

systemctl disable firewalld.service

3.安装JDK(jdk8以上,我这里用的1.8最新的)

jdk下载地址:Java Downloads | Oracle

网盘链接:百度网盘百度网盘为您提供文件的网络备份、同步和分享服务。空间大、速度快、安全稳固,支持教育网加速,支持手机端。注册使用百度网盘即可享受免费存储空间https://pan.baidu.com/s/1fB5ib4GPz_0JSO3ncvVI4Q 提取码: besp

安装步骤不再赘述,请参考:Centos 配置 Java JDK开发环境_centos wget 安装 jdk-8u333-CSDN博客

4.安装Hadoop 3.3.6 伪分布式安装方式

1.hadoop下载地址: https://archive.apache.org/dist/hadoop/common/

最新版的就是3.3.6版本

2.把jdk和Hadoop安装包都上传到服务器 /opt 目录下

解压:

复制代码
tar -zxvf jdk-8u401-linux-x64.tar.gz
tar -zxvf hadoop-3.3.6.tar.gz

环境变量配置:在 /etc/profile 文件中加入以下环境变量:vim /etc/profile

复制代码
export JAVA_HOME=/opt/jdk1.8.0_401
export PATH=$PATH:$JAVA_HOME/bin

export HADOOP_HOME=/opt/hadoop-3.3.6
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

如图所示:

执行命令使配置生效:

复制代码
source /etc/profile

检验配置:java -version 以及 hadoop version 命令查看

修改 Hadoop 配置文件:

编辑 Hadoop 配置文件,主要是core-site.xmlhdfs-site.xml,和 mapred-site.xml

进入到hadoop目录配置下:以下的操作都是在该目录下进行

复制代码
cd /opt/hadoop-3.3.6/etc/hadoop

编辑 core-site.xml:下面是我虚拟机的ip地址

  • fs.defaultFS: 指定HDFS的默认文件系统URI

<property>

<name>fs.defaultFS</name>

<value>hdfs://192.168.40.132:9000</value>

</property>

编辑 hdfs-site.xml:下面的 /opt/hadoop-3.3.6/data/dfs/datanode 文件夹需自行创建

  • dfs.replication: 指定数据块的副本数量。
  • dfs.namenode.name.dir: 指定NameNode存储文件的本地目录。
  • dfs.datanode.data.dir: 指定DataNode存储数据块的本地目录。

<property>

<name>dfs.replication</name>

<value>1</value>

</property>

<property>

<name>dfs.namenode.name.dir</name>

<value>file:/opt/hadoop-3.3.6/data/dfs/namenode</value>

</property>

<property>

<name>dfs.datanode.data.dir</name>

<value>file:/opt/hadoop-3.3.6/data/dfs/datanode</value>

</property>

编辑 mapred-site.xml

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

配置 Hadoop 环境:

vim hadoop-env.sh

export HDFS_SECONDARYNAMENODE_USER="root"

export HDFS_NAMENODE_USER="root"

export HDFS_DATANODE_USER="root"

export YARN_RESOURCEMANAGER_USER="root"

export YARN_NODEMANAGER_USER="root"

export JAVA_HOME=/opt/jdk1.8.0_401

export HADOOP_HOME=/opt/hadoop-3.3.6

在Hadoop环境中,需要为各个角色(例如NameNode、DataNode等)指定相关的用户。如果不配置上面的各个角色,则启动会报下面的错误:

启动 Hadoop:

格式化 HDFS 文件系统:

复制代码
hdfs namenode -format

出现下面的提示则说明格式化成功了

​​​​​​

启动 Hadoop 伪集群:

复制代码
start-dfs.sh
start-yarn.sh

#重启 hadoop (先停止服务,再启动)

#直接在 /opt/hadoop-3.3.6/etc/hadoop 目录下执行 (自己的安装目录)

stop-dfs.sh

stop-yarn.sh

start-dfs.sh

start-yarn.sh

验证安装:

在浏览器中访问 Hadoop ResourceManager 界面:

http://ip:8088

或者访问Hadoop DFS界面:

http://ip:9870

你还可以使用以下命令查看Hadoop集群的状态:

复制代码
jps

这应该显示一些Hadoop进程,包括NameNodeDataNodeResourceManager等。

现在,你的Hadoop伪集群应该已经启动并运行了。请注意,这只是一个基本的配置,具体的配置和调整可能会根据你的需求有所不同。

相关推荐
花小璇学linux27 分钟前
imx6ull-驱动开发篇24——Linux 中断API函数
linux·驱动开发·嵌入式软件
林开落L1 小时前
库制作与原理(下)
linux·开发语言·centos·库制作与原理
wxy3191 小时前
嵌入式LINUX——————TCP并发服务器
java·linux·网络
Castamere1 小时前
配置 Linux 终端 (zsh)
linux
杭州泽沃电子科技有限公司2 小时前
告别翻山越岭!智能监拍远程守护输电线路安全
运维·人工智能·科技·安全
小韩博3 小时前
metasploit 框架安装更新遇到无法下载问题如何解决
linux·网络安全·公钥·下载失败
长臂人猿3 小时前
JVM常用工具:jstat、jmap、jstack
linux·运维·jvm
轻松Ai享生活3 小时前
揭秘 linux:一张图看懂系统配置的核心
linux
wdxylb4 小时前
云原生俱乐部-RH134知识点总结(2)
linux·云原生
_Chipen4 小时前
lazy_vim_cmake_clangd_从零到自动补全与语法检查
linux·编辑器·vim