hadoop安装

首先,我们需要一个linux,由于咱们的centos改为滚动更新,已经不太适合部署了,一开始想用下游替代AlmaLinux结果virtualbox不好用,那就只能使用地道的ubuntu(ubuntu Server 24.04.3 LTS)吧

有些东西在大多数的教程内没讲全,我把他们汇总起来并且进行了更正
比如root和普通用户的path问题,3.3.6版本不支持root用户直接启动问题,并且大多数教程是面向你拥有很多主机的情况
我这里是直接面向仅一台主机的情况,在学习上成本更小甚至为0

这里为什么使用ubuntu Server 24.04.3 LTS而不是常规ubuntu呢?

因为我电脑差...

安装linux

我给他分了4GB内存 4核心 40GB硬盘

第一步

这里下面要空格点一下安装openssh

然后是安装软件,可以都不安,我就不安了,我空间不够了

然后就安装了

弹出这个点reboot now

此时正式开机,注意,如果你也用的virtualbox需要强制关机一次

然后输入账号密码登录

查看ip地址(使用ip addr命令)

打码处是ip

然后设置为NAT和端口转发

然后配置22端口转发

第二步,超级ssh

使用xshell

然后新建一下目录备用

bash 复制代码
cd /
sudo mkdir -p /export/{data,servers,software}

接下来我们要传软件,提权一下

bash 复制代码
sudo chmod 777 /export
sudo chmod 777 /export/software

然后传输

然后

bash 复制代码
sudo su
# 直接化身root权限
# 超级解压
cd /export/software
tar -zxvf jdk-8u391-linux-x64.tar.gz -C /export/servers/
# 超级改名
cd /export/servers
mv jdk1.8.0_391 jdk

然后超级配置

bash 复制代码
vim /etc/profile

然后在打开的文件按下键盘i,并且移动到最下面输入

bash 复制代码
#java配置
export JAVA_HOME=/export/servers/jdk
export PATH=$PATH:$JAVA_HOME/bin
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

大概是这个样子

然后esc,按下:wq!退出

之后强制激活

bash 复制代码
source /etc/profile

第三步,超级安装

现在有了jdk(java)就可以安装hadoop了

bash 复制代码
cd /export/software
tar -zxvf hadoop-3.3.6.tar.gz -C /export/servers/

同样的方法配置hadoop

bash 复制代码
vim /etc/profile
# 在打开的文件内
#hadoop配置
export HADOOP_HOME=/export/servers/hadoop-3.3.6
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
bash 复制代码
source /etc/profile

第四步,去你的权限

然后这里有个小坑

就是root中权限太大了,需要单独开个java_home

bash 复制代码
cd /export/servers/hadoop-3.3.6/etc/hadoop/

vim hadoop-env.sh

#然后找到export JAVA_HOME= 改成export JAVA_HOME=/export/servers/jdk
#或者直接最后一行加export JAVA_HOME=/export/servers/jdk

然后修改core-site.xml

bash 复制代码
vim core-site.xml
# 找到<configuration>
<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://hadoop01的名称:9000</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/export/servers/hadoop-3.3.6/tmp</value>
    </property>
</configuration>

同理

bash 复制代码
vim hdfs-site.xml

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>3</value>
    </property>
    <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>hadoop02的名称:50090</value>
    </property>
</configuration>
bash 复制代码
vim mapred-site.xml

<configuration>
 <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>
bash 复制代码
vim yarn-site.xml

<configuration>
    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>hadoop01主机</value>
    </property>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
</configuration>

如果要组集群可以修改

bash 复制代码
vim workers

然后记得给一下用户权限

先su 一开始你创建的用户

bash 复制代码
ssh-keygen -t rsa -P ""
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
chmod 700 ~/.ssh
chmod 600 ~/.ssh/authorized_keys

并且对你当前用户的

bash 复制代码
vim ~/.bashrc
#然后末尾java和hadoop

第五步,超级格式化

bash 复制代码
hdfs namenode -format

最后,端口转发

然后转发一下50090 50070 9000端口就好啦

相关推荐
Dream Algorithm5 小时前
MACD负很多说明什么
大数据
IT小哥哥呀8 小时前
如何从 Windows SSH 进入 VirtualBox Ubuntu 虚拟机——密码认证(逐步指南)
linux·windows·ubuntu·ssh·教程·虚拟机
原神启动18 小时前
云计算大数据——shell教程(三剑客之awk)
大数据·开发语言·perl
Hello.Reader10 小时前
Flink CDC 用 PolarDB-X CDC 实时同步数据到 Elasticsearch
大数据·elasticsearch·flink
说私域10 小时前
智能名片链动2+1模式S2B2C商城小程序:构建私域生态“留”量时代的新引擎
大数据·人工智能·小程序
paperxie_xiexuo11 小时前
如何高效完成科研数据的初步分析?深度体验PaperXie AI科研工具中数据分析模块在统计描述、可视化与方法推荐场景下的实际应用表现
大数据·数据库·人工智能·数据分析
武子康12 小时前
大数据-160 Apache Kylin Cube 实战:从建模到构建与查询(含踩坑与优化)
大数据·后端·apache kylin
非著名架构师12 小时前
智慧气象护航:构建陆海空立体交通气象安全保障体系
大数据·人工智能·安全·疾风气象大模型4.0·疾风气象大模型·风光功率预测