Linux的Spark 环境部署

前言:需自行准备hadoop集群

  1. Spark 是一款分布式内存计算引擎, 可以支撑海量数据的分布式计算。 Spark 在大数据体系是明星产品, 作为最新一代的综合计算引擎, 支持离线计算和实 时计算。 在大数据领域广泛应用, 是目前世界上使用最多的大数据分布式计算引擎。 我们将基于前面构建的 Hadoop 集群, 部署 Spark Standalone 集群。

2.安装

spark镜像安装https://mirrors.aliyun.com/apache/spark/spark-3.5.3/?spm=a2c6h.25603864.0.0.12d22104b1PXSX

3.解压: 命令: tar -zxvf spark-3.5.3-bin-hadoop3.tgz -C /export/server/

4.创建软连接 命令: ln -s /export/server/spark-3.5.3-bin-hadoop3 /export/server/spark

5.改名

命令: cd /export/server/spark/conf

mv spark-env.sh.template spark-env.sh

mv workers.template workers

6.修改配置文件, spark-env.sh

加入:

JAVA_HOME=/export/server/jdk

HADOOP_CONF_DIR=/export/server/hadoop/etc/hadoop

YARN_CONF_DIR=/export/server/hadoop/etc/hadoop

export SPARK_MASTER_HOST=wtk

export SPARK_MASTER_PORT=7077

SPARK_MASTER_WEBUI_PORT=8080

SPARK_WORKER_CORES=1

SPARK_WORKER_MEMORY=1g

7.修改配置文件,workers

清空加入:

各个主机名

8.分发到各个主机

命令 scp -r /export/server/spark-3.5.3-bin-hadoop3 wtk1:/export/server/

部分文件:

9.给分配主机创建软连接

命令: ln -s /export/server/spark-3.5.3-bin-hadoop3 /export/server/spark

10.启动spark

命令: /export/server/spark/sbin/start-all.sh

11.验证:

打开spark监控页面

主机ip:8081

我的是192.168.10.130:8081

提交测试任务:(执行以下脚本,主机名自行修改):

/export/server/spark/bin/spark-submit --master spark://wtk:7077 --class org.apache.spark.examples.SparkPi /export/server/spark-3.5.3-bin-hadoop3/examples/jars/spark-examples_2.12-3.5.3.jar examples_2.11-2.4.5.jark

网页刷新,发现脚本已经执行完毕

此时显示应用程序完成

这就是spark的安装部署了

相关推荐
辞旧 lekkk1 小时前
【Qt】信号和槽
linux·开发语言·数据库·qt·学习·mysql·萌新
疯狂成瘾者3 小时前
服务器的单体和集群
运维·服务器
青岛前景互联信息技术有限公司4 小时前
OpenClaw 重构智慧消防:AI时代的平台融合实践
大数据·人工智能
liuhuizuikeai4 小时前
可视化门禁---Linux/Qt+SqLite篇
linux·运维·qt
梦梦代码精4 小时前
BuildingAI 上部署自定义工作流智能体:5 个实用技巧
大数据·人工智能·算法·开源软件
初願致夕霞4 小时前
基于系统调用的Linux网络编程——UDP与TCP
linux·网络·c++·tcp/ip·udp
极客老王说Agent4 小时前
2026智造前瞻:实在Agent生产排期智能助理核心功能与使用方法详解
大数据·人工智能·ai·chatgpt
数智化精益手记局6 小时前
什么是设备维护管理?设备维护管理包含哪些内容?
大数据·网络·人工智能·安全·信息可视化
AllData公司负责人6 小时前
通过Postgresql同步到Doris,全视角演示AllData数据中台核心功能效果,涵盖:数据入湖仓,数据同步,数据处理,数据服务,BI可视化驾驶舱
java·大数据·数据库·数据仓库·人工智能·python·postgresql
桃花键神7 小时前
Bright Data Web Scraping指南 2026: 使用 MCP + Dify 自动采集海外社交媒体数据
大数据·前端·人工智能