Mac安装hadoop

1.在terminal中检查是否安装brew命令

brew --version

如果没有安装,在terminal中执行命令,安装brew

/bin/bash -c "$(curl -fsSL [https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"](https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)\ "https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"")

安装完成后,再重新打开teminal brew --version进行检查

2.下载安装hadoop

brew install hadoop

通过hadoop version 检查是否安装完成

3.查看是否可以远程登录,在terminal中执行命令

ssh localhost

如果显示不允许登录,在系统中设置允许远程登录,进行系统设置

4.查看hadoop安装目录

brew --prefix hadoop

5.修改hadoop配置信息

cd /opt/homebrew/opt/hadoop/libexec/etc/hadoop

修改vi core-site.xml文件

复制代码
<configuration>
  <property>
    <name>fs.defaultFS</name>
    <value>hdfs://localhost:8082</value>
  </property>
  <property>
    <name>hadoop.tmp.dir</name>
    <value>file:/opt/homebrew/opt/hadoop/datatmp</value>
 </property>
</configuration>

修改hdfs-site.xml

复制代码
<configuration>
        <property>
                <name>dfs.replication</name>
                <value>1</value>
        </property>
        <!--不是root用户也可以写文件到hdfs-->
        <property>
                <name>dfs.permissions</name>
                <value>false</value>    <!--关闭防火墙-->
        </property>
        <!--把路径换成本地的name坐在位置-->
        <property>
                <name>dfs.namenode.name.dir</name>  
                <value>file:/opt/homebrew/opt/hadoop/datatmp/dfs/name</value>
        </property>
        <!--在本地新建一个存放hadoop数据的文件夹,然后将路径在这里配置一下-->
        <property>
                <name>dfs.datanode.data.dir</name>
                <value>file:/opt/homebrew/opt/hadoop/datatmp/dfs/data</value>
        </property>
</configuration>

格式化namenode

输入hdfs namenode -format

修改yarn-site.xml

复制代码
<property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
  </property>
<property>
    <name>yarn.resourcemanager.address</name>
    <value>localhost:9000</value>
  </property> 

6.启动hdfs

在/opt/homebrew/opt/hadoop/libexec/sbin目录输入

./start-dfs.sh 如报以下错误

执行命令

ssh-keygen -t rsa

cat ~/.ssh/id_rsa.pub >>~/.ssh/authorized_keys

chmod og-wx ~/.ssh/authorized_keys

重新启动

在sbin目录下输入./start-dfs.sh

在浏览器中输入http://localhost:9870/ 如果出现以下界面说明安装成功

使用 ./stop-dfs.sh 关闭服务

7.启动yarn

在sbin目录下输入./start-yarn.sh

如果启动的过程中出现错误

原因是jdk版本过高,安装jdk8.重新配置JAVA_HOME再启动,jdk下载地址

https://www.oracle.com/java/technologies/downloads/#java8

在浏览器输入 http://localhost:8088/ 出现下图页面成功

执行 ./stop-yarn.sh 关闭服务

参考:https://blog.csdn.net/zx1245773445/article/details/84875774

相关推荐
周杰伦_Jay38 分钟前
【Mac 上命令行安装 Claude Code】(Claude 的终端版 AI 编程助手)完整指南
人工智能·macos·claude code
广拓科技38 分钟前
微信历史版本含下载地址( Windows PC | 安卓 | MAC )及设置微信不更新
macos·微信
Art&Code40 分钟前
M系列Mac保姆级教程:Clawdbot安装+API配置,30分钟解锁AI自动化!
运维·macos·自动化
「已注销」40 分钟前
TradingView电脑版下载指南(Windows/Mac)
macos
冰冷的希望43 分钟前
【系统】VMware17虚拟机安装黑苹果macOS 15.0详细步骤(保姆级)
macos·操作系统·系统·vmware·虚拟机·黑苹果
尘世壹俗人1 小时前
Zookeeper、Hadoop、Hive配置Kerberos
hadoop
yuluo_YX1 小时前
Alias for Linux/Mac
linux·elasticsearch·macos
小李独爱秋2 小时前
计算机网络经典问题透视:无线局域网MAC协议中的SIFS和DIFS究竟是什么?
网络协议·计算机网络·macos·网络安全·信息与通信·信号处理
B站计算机毕业设计超人2 小时前
计算机毕业设计hadoop+spark+hive在线教育可视化 课程推荐系统 大数据毕业设计(源码+LW文档+PPT+讲解)
大数据·人工智能·hive·hadoop·scrapy·spark·课程设计
普通网友2 小时前
Hive ACID 事务表实战:插入 / 更新 / 删除操作的配置与使用限制
数据仓库·hive·hadoop