spark-standalone

一、定义:Standalone 模式是一种独立的集群部署模式,自带完整服务,可单独部署到一个集群中,无需依赖任何其他资源管理系统。

二、配置步骤

1.和前面一样拉到hadoop101的/opt/module这个目录里面。

2.压缩

3.重命名为spark-standalone

4.配置环境变量

5.同步环境变量

6.进入/opt/module/spark-standalone/conf这个目录,修改workers.template文件,将后缀名去掉,然后点进去,添加下列内容

7.修改spark-env.sh.template文件,将后缀名去掉,然后点进去,添加下列内容

8.同步设置完毕的Spark目录到其他节点。使用我们之前封装的命令:

xsync /opt/module/spark-standalone/

9.启动SPARK集群。进入到hadoop100机器,切换目录到/opt/module/spark-standalone/sbin下,运行命令 ./start-all.sh。(注意,这里不要省略./)

10.验收效果。通过jps命令去每台机器上查看运行的进程。请观察是否在hadoop101上看到了master,worker在hadoop103,hadoop102上看到了worker。

11.查看启动效果。打开浏览器,输入hadoop100:8080。看到效果如下:

相关推荐
Qzkj6661 小时前
从规则到智能:企业数据分类分级的先进实践与自动化转型
大数据·人工智能·自动化
F***c3251 小时前
PHP在微服务中的分布式跟踪
分布式·微服务·php
q***47433 小时前
PostgreSQL 中进行数据导入和导出
大数据·数据库·postgresql
寰宇视讯3 小时前
奇兵到家九周年再进阶,获36氪“WISE2025商业之王 年度最具商业潜力企业”
大数据
声网3 小时前
活动推荐丨「实时互动 × 对话式 AI」主题有奖征文
大数据·人工智能·实时互动
深蓝电商API4 小时前
Scrapy + Scrapy-Redis 分布式爬虫集群部署(2025 最新版)
redis·分布式·scrapy
Hello.Reader5 小时前
在 YARN 上跑 Flink CDC从 Session 到 Yarn Application 的完整实践
大数据·flink
Learn Beyond Limits5 小时前
Data Preprocessing|数据预处理
大数据·人工智能·python·ai·数据挖掘·数据处理
Sinowintop5 小时前
易连EDI-EasyLink无缝集成之消息队列Kafka
分布式·网络协议·kafka·集成·国产化·as2·国产edi
玩转以太网6 小时前
W55MH32 单芯片以太网方案:破解分布式 IO 三大痛点
分布式·物联网