Linux单机部署spark

Linux单机部署spark

前提:java17环境

官网下载:

Apache 下载镜像

下载成功后通过终端上传到服务器并解压:

tar -zxvf spark-3.5.7-bin-hadoop3.tgz

添加到环境变量:

vi /etc/profile

添加如下内容:

#spark

#这里路径给位你的spark的实际路径

export SPARK_HOME=/root/spark/spark-3.5.7-bin-hadoop3

export PATH=SPARK_HOME/bin:PATH

刷新环境变量:

source /etc/profile

检查环境变量是否配置成功:

spark-shell

出现以下,证明配置成功:

相关推荐
howard20051 天前
2.4.3 集群模式运行Spark项目
spark·项目打包·提交运行
孤雪心殇1 天前
快速上手数仓基础知识
数据仓库·hive·spark
渣渣盟1 天前
Spark 性能调优实战:从开发到生产落地
javascript·ajax·spark
渣渣盟2 天前
大数据技术栈全景图:从零到一的入门路线(深度实战版)
大数据·hadoop·python·flink·spark
DolphinScheduler社区3 天前
DolphinScheduler 3.3.2 如何调用 DataX 3.0 + SeaTunnel 2.3.12?附 Demo演示!
java·spark·apache·海豚调度·大数据工作流调度
Leo.yuan3 天前
数据仓库是什么?数据仓库和大数据平台、数据湖、数据中台、湖仓一体有什么区别?
大数据·数据仓库·spark
heiqizero3 天前
Spark RDD动作算子
spark
heiqizero3 天前
Spark RDD转换算子02
spark
heiqizero4 天前
Spark RDD转换算子01
spark
武子康7 天前
大数据-278 Spark MLib-GBDT梯度提升决策树详解:从原理到实战案例
大数据·后端·spark