【Linux】-Spark分布式内存计算集群部署[20]

注意:

本节的操作,需要前置准备好Hadoop生态集群,请先部署好Hadoop环境

简介

Spark是一款分布式内存计算引擎,可以支持海量数据的分布式计算。

Spark在大数据体系是明星产品,作为最新一代的综合计算引擎,支持离线计算和实时计算。

在大数据邻域广泛应用,是目前世界上使用最多的大数据分布式计算引擎。

将基于前面构建的Hadoop集群,部署Spark Standalone集群

安装

1、【node1执行】 下载并解压

下载

复制代码
wget https://archive.apache.org/dist/spark/spark-2.4.5/spark-2.4.5-bin-hadoop2.7.tgz

解压到文件夹/expoet/server中

复制代码
tar -zxvf spark-2.4.5-bin-hadoop2.7.tgz -C /export/server

构建软链接

复制代码
ln -s /export/server/spark-2.4.5-bin-hadoop2.7 /export/server/spark

2、【node1执行】 修改配置文件名称

复制代码
# 改名
cd /export/server/spark/conf
mv spark-env.sh.template spark-env.sh
mv slaves.template slaves

3、【node1执行】修改配置文件,spark-env.sh

复制代码
## 设置JAVA安装目录
JAVA_HOME=/export/server/jdk

## HADOOP软件配置文件目录,读取HDFS上文件和运行YARN集群
HADOOP_CONF_DIR=/export/server/hadoop/etc/hadoop
YARN_CONF_DIR=/export/server/hadoop/etc/hadoop

## 指定spark老大master的ip和提交任务的通信端口
export SPARK_MASTER_HOST=node1
export SPARK_MASTER_PORT=7077

SPARK_MASTER_WEBUI_PORT=8080
SPARK_WORKER_CORES=1
SPARK_WORKER_MEMORY=1g

4、【node1执行】 修改配置文件,slaver

复制代码
node1
node2
node3

5、【node1执行】分发到node2、node3

复制代码
scp -r spark-2.4.5-bin-hadoop2.7 node2:$PWD
scp -r spark-2.4.5-bin-hadoop2.7 node3:$PWD

6、【node2、node3】构建软链接

复制代码
ln -s /export/server/spark-2.4.5-bin-hadoop2.7 /export/server/spark

7、【node1】 启动spark集群

复制代码
/export/server/spark/sbin/start-all.sh

如需停止,执行下列代码

复制代码
/export/server/spark/sbin/stop-all.sh

8、打开spark监控页面,浏览器打开:http://node1:8081

至此、spark集群就部署完毕啦。

相关推荐
爬山算法11 分钟前
Redis(161)如何使用Redis实现分布式锁?
数据库·redis·分布式
边缘计算社区32 分钟前
云边协同推理再突破:新型分布式解码框架吞吐量提升近 10%
分布式
大猫子的技术日记1 小时前
[后端杂货铺]深入理解分布式事务与锁:从隔离级别到传播行为
分布式·后端·事务
小股虫4 小时前
分布式一致性算法深度解析:Paxos、Raft与ZAB的原理、实现与应用
分布式
Tan_Ying_Y4 小时前
分布式环境下,怎么保证线程安全
分布式
seven_7678230985 小时前
【前瞻创想】Kurator架构演进与云原生未来
分布式·云原生·架构·kurator·全链路
@鱼香肉丝没有鱼6 小时前
大模型分布式微调 & Xtuner
分布式·大模型微调·xtuner·llamafactory
Wokoo76 小时前
C/S 架构与 B/S 架构:核心差异 + 选型指南
分布式·后端·中间件·架构
小股虫6 小时前
RabbitMQ深度解析:从入门到原理再到实战应用
分布式·rabbitmq
CRUD酱6 小时前
RabbitMQ是如何解决消息堆积问题的?
分布式·rabbitmq