hadoop安装

首先,我们需要一个linux,由于咱们的centos改为滚动更新,已经不太适合部署了,一开始想用下游替代AlmaLinux结果virtualbox不好用,那就只能使用地道的ubuntu(ubuntu Server 24.04.3 LTS)吧

有些东西在大多数的教程内没讲全,我把他们汇总起来并且进行了更正
比如root和普通用户的path问题,3.3.6版本不支持root用户直接启动问题,并且大多数教程是面向你拥有很多主机的情况
我这里是直接面向仅一台主机的情况,在学习上成本更小甚至为0

这里为什么使用ubuntu Server 24.04.3 LTS而不是常规ubuntu呢?

因为我电脑差...

安装linux

我给他分了4GB内存 4核心 40GB硬盘

第一步

这里下面要空格点一下安装openssh

然后是安装软件,可以都不安,我就不安了,我空间不够了

然后就安装了

弹出这个点reboot now

此时正式开机,注意,如果你也用的virtualbox需要强制关机一次

然后输入账号密码登录

查看ip地址(使用ip addr命令)

打码处是ip

然后设置为NAT和端口转发

然后配置22端口转发

第二步,超级ssh

使用xshell

然后新建一下目录备用

bash 复制代码
cd /
sudo mkdir -p /export/{data,servers,software}

接下来我们要传软件,提权一下

bash 复制代码
sudo chmod 777 /export
sudo chmod 777 /export/software

然后传输

然后

bash 复制代码
sudo su
# 直接化身root权限
# 超级解压
cd /export/software
tar -zxvf jdk-8u391-linux-x64.tar.gz -C /export/servers/
# 超级改名
cd /export/servers
mv jdk1.8.0_391 jdk

然后超级配置

bash 复制代码
vim /etc/profile

然后在打开的文件按下键盘i,并且移动到最下面输入

bash 复制代码
#java配置
export JAVA_HOME=/export/servers/jdk
export PATH=$PATH:$JAVA_HOME/bin
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

大概是这个样子

然后esc,按下:wq!退出

之后强制激活

bash 复制代码
source /etc/profile

第三步,超级安装

现在有了jdk(java)就可以安装hadoop了

bash 复制代码
cd /export/software
tar -zxvf hadoop-3.3.6.tar.gz -C /export/servers/

同样的方法配置hadoop

bash 复制代码
vim /etc/profile
# 在打开的文件内
#hadoop配置
export HADOOP_HOME=/export/servers/hadoop-3.3.6
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
bash 复制代码
source /etc/profile

第四步,去你的权限

然后这里有个小坑

就是root中权限太大了,需要单独开个java_home

bash 复制代码
cd /export/servers/hadoop-3.3.6/etc/hadoop/

vim hadoop-env.sh

#然后找到export JAVA_HOME= 改成export JAVA_HOME=/export/servers/jdk
#或者直接最后一行加export JAVA_HOME=/export/servers/jdk

然后修改core-site.xml

bash 复制代码
vim core-site.xml
# 找到<configuration>
<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://hadoop01的名称:9000</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/export/servers/hadoop-3.3.6/tmp</value>
    </property>
</configuration>

同理

bash 复制代码
vim hdfs-site.xml

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>3</value>
    </property>
    <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>hadoop02的名称:50090</value>
    </property>
</configuration>
bash 复制代码
vim mapred-site.xml

<configuration>
 <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>
bash 复制代码
vim yarn-site.xml

<configuration>
    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>hadoop01主机</value>
    </property>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
</configuration>

如果要组集群可以修改

bash 复制代码
vim workers

然后记得给一下用户权限

先su 一开始你创建的用户

bash 复制代码
ssh-keygen -t rsa -P ""
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
chmod 700 ~/.ssh
chmod 600 ~/.ssh/authorized_keys

并且对你当前用户的

bash 复制代码
vim ~/.bashrc
#然后末尾java和hadoop

第五步,超级格式化

bash 复制代码
hdfs namenode -format

最后,端口转发

然后转发一下50090 50070 9000端口就好啦

相关推荐
私域实战笔记7 小时前
选企业微信服务商哪家好?从工具适配与行业案例看选型逻辑
大数据·人工智能·企业微信
AI企微观察7 小时前
企业微信社群运营玩法有哪些?企业微信社群工具有哪些功能?——从拉新到留存的玩法设计与工具支撑
大数据·人工智能
金融小师妹8 小时前
OpenAI拟借AI估值重构浪潮冲击1.1万亿美元IPO——基于市场情绪因子与估值量化模型的深度分析
大数据·人工智能·深度学习·1024程序员节
wudl55669 小时前
Flink Keyed State 详解之二
大数据·flink
IT学长编程9 小时前
计算机毕业设计 基于Python的热门游戏推荐系统的设计与实现 Django 大数据毕业设计 Hadoop毕业设计选题【附源码+文档报告+安装调试】
大数据·python·django·毕业设计·课程设计·毕业论文
Ashlee_code10 小时前
什么是TRS收益互换与场外个股期权:从金融逻辑到系统开发实践
大数据·人工智能·python·金融·系统架构·清算·柜台
人大博士的交易之路11 小时前
龙虎榜——20251031
大数据·数学建模·数据分析·缠论·缠中说禅·龙虎榜·道琼斯结构
科海思 132-6O59 692511 小时前
矿泉水除溴化物的解决方案
大数据·运维
深鱼~11 小时前
从本地存储到全球访问:1Panel的家庭服务器革命
大数据·运维·服务器