如何配置Spark

1.上传spark安装包到某一台机器(自己在finaShell上的机器)。

2.解压。 把第一步上传的安装包解压到/opt/module下(也可以自己决定解压到哪里)。对应的命令是:tar -zxvf 安装包 -C /opt/module

3.重命名。进入/opt/module/目录下把解压的内容重命名一下。命令是:mv spark-3.1.1-bin-hadoop3.2/ spark-standalone

4.配置环境变量,更新spark路径。命令为:/etc/profile.d/my_env.sh

5.同步环境变量,并使用source命令让它生效。

6.修改 workers.template**文件**。这个文件在spark的安装目录下的conf目录下,先把名字改为workers,然后把内容设置为三台机器的主机名,具体如下。

自己三台机器名字:

hadoop100

hadoop101

hadoop102

7.修改spark-env.sh.template文件 。先把名字改成spark-env.sh,然后修改内容,添加JAVA_HOME环境变量和集群对应的master节点以及通信端口,具体如下。

SPARK_MASTER_HOST=hadoop100(自己所配置下的机器名字)
SPARK_MASTER_PORT=7077

8.同步设置完毕的Spark目录到其他节点。使用我们之前分发的命令:

xsync /opt/module/spark-standalone/

9.启动SPARK集群。进入到hadoop100(自己所配置下的机器名字)机器,切换目录到**/opt/module/spark-standalone/sbin** 下,运行命令 ./start-all.sh

注意,这里不要省略./,它表示的是当前目录下的start-all命令,如果省略了./,它就会先去环境变量PATH中指定的目录来找这个命令

10.验收效果。通过jps命令去每台机器上查看运行的进程。请观察是否在hadoop100上看到了masterworker 在hadoop101,hadoop102上看到了worker

11.查看启动效果。打开浏览器,输入hadoop100:8080。看到效果如下:

相关推荐
一只栖枝3 小时前
华为 HCIE 大数据认证中 Linux 命令行的运用及价值
大数据·linux·运维·华为·华为认证·hcie·it
喂完待续7 小时前
Apache Hudi:数据湖的实时革命
大数据·数据仓库·分布式·架构·apache·数据库架构
青云交7 小时前
Java 大视界 -- 基于 Java 的大数据可视化在城市交通拥堵治理与出行效率提升中的应用(398)
java·大数据·flink·大数据可视化·拥堵预测·城市交通治理·实时热力图
还是大剑师兰特13 小时前
Flink面试题及详细答案100道(1-20)- 基础概念与架构
大数据·flink·大剑师·flink面试题
yh云想15 小时前
《从入门到精通:Kafka核心原理全解析》
分布式·kafka
1892280486116 小时前
NY243NY253美光固态闪存NY257NY260
大数据·网络·人工智能·缓存
武子康17 小时前
大数据-70 Kafka 日志清理:删除、压缩及混合模式最佳实践
大数据·后端·kafka
CCF_NOI.18 小时前
解锁聚变密码:从微观世界到能源新未来
大数据·人工智能·计算机·聚变
杨荧19 小时前
基于Python的电影评论数据分析系统 Python+Django+Vue.js
大数据·前端·vue.js·python
数据智研20 小时前
【数据分享】上市公司创新韧性数据(2007-2023)
大数据·人工智能