Linux单机部署spark

Linux单机部署spark

前提:java17环境

官网下载:

Apache 下载镜像

下载成功后通过终端上传到服务器并解压:

tar -zxvf spark-3.5.7-bin-hadoop3.tgz

添加到环境变量:

vi /etc/profile

添加如下内容:

#spark

#这里路径给位你的spark的实际路径

export SPARK_HOME=/root/spark/spark-3.5.7-bin-hadoop3

export PATH=SPARK_HOME/bin:PATH

刷新环境变量:

source /etc/profile

检查环境变量是否配置成功:

spark-shell

出现以下,证明配置成功:

相关推荐
D愿你归来仍是少年2 天前
Apache Spark 第六章:执行计划与 DAG 调度
大数据·spark
Hello.Reader3 天前
PySpark DataFrame 快速入门创建、查询、分组、读写、SQL 实战一篇讲透
数据库·sql·spark
D愿你归来仍是少年3 天前
Apache Spark 第五章:Spark SQL 与 DataFrame
大数据·spark
D愿你归来仍是少年4 天前
Apache Spark 第 3 章:核心概念 RDD / DataFrame
大数据·spark·apache
Hello.Reader5 天前
PySpark 安装保姆级教程pip、Conda、手动安装、Spark Connect 一次讲透(一)
python·spark·conda·pip
Light605 天前
SPARK Agent Protocol(SAP):AI Agent时代的前端开发革命指南
大数据·人工智能·spark
D愿你归来仍是少年5 天前
Apache Spark 第 4 章:Spark 整体架构
spark·apache
datablau国产数据库建模工具5 天前
【无标题】
大数据·数据挖掘·spark
yumgpkpm5 天前
Apache Spark 和 Flink,处理实时大数据流对比(Cloudera CDH、CDP)
flink·spark·apache
D愿你归来仍是少年6 天前
Apache Spark 从入门到精通:完整学习指南
大数据·spark