Linux单机部署spark

Linux单机部署spark

前提:java17环境

官网下载:

Apache 下载镜像

下载成功后通过终端上传到服务器并解压:

tar -zxvf spark-3.5.7-bin-hadoop3.tgz

添加到环境变量:

vi /etc/profile

添加如下内容:

#spark

#这里路径给位你的spark的实际路径

export SPARK_HOME=/root/spark/spark-3.5.7-bin-hadoop3

export PATH=SPARK_HOME/bin:PATH

刷新环境变量:

source /etc/profile

检查环境变量是否配置成功:

spark-shell

出现以下,证明配置成功:

相关推荐
AI自动化工坊1 天前
Meta Muse Spark技术深度解析:原生多模态推理架构实践指南
大数据·人工智能·架构·spark
talen_hx2961 天前
《零基础入门Spark》学习笔记 Day 15
大数据·笔记·学习·spark
talen_hx2962 天前
《零基础入门Spark》学习笔记 Day 14
大数据·笔记·学习·spark
xiaoyaohou112 天前
025、分布式计算实战:Spark Core与Spark SQL
sql·ajax·spark
xiaoyaohou112 天前
024、大数据技术栈概览:Hadoop、Spark与Flink
大数据·hadoop·spark
2501_948114242 天前
Muse Spark 闭源转型背后的系统化演进:PAO 架构、KV Cache 压缩与聚合接入实践
大数据·架构·spark
Henb9292 天前
# Spark 内核级调优源码分析
大数据·ajax·spark
薛定猫AI2 天前
【深度解析】Meta Muse Spark:原生多模态推理模型与多智能体编排的工程化实践
大数据·分布式·spark
xiaoyaohou112 天前
026、流式计算:Kafka与Spark Streaming实时处理
spark·kafka·linq
chaofan9803 天前
Meta Muse Spark 深度解构:并联智能体架构与开发者接入实战指南
大数据·架构·spark