spark 单机安装

1、安装jdk、scala(提前安装准备)
复制代码
[root@keep-hadoop ~]# java -version
java version "1.8.0_172"
Java(TM) SE Runtime Environment (build 1.8.0_172-b11)
Java HotSpot(TM) 64-Bit Server VM (build 25.172-b11, mixed mode)
[root@keep-hadoop ~]# scala -version
Scala code runner version 2.11.8 -- Copyright 2002-2016, LAMP/EPFL
2、下载安装包

https://downloads.apache.org/spark/

3、解压安装包到指定目录
复制代码
[root@keep-hadoop hadoop]# tar -zxvf spark-1.6.3-bin-hadoop2.6.tgz -C /usr/local/src/
4、配置环境变量
复制代码
[root@keep-hadoop ~]# vim /etc/profile
export SPARK_HOME=/usr/local/src/spark-2.0.2-bin-hadoop2.6
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin

[root@keep-hadoop ~]# source /etc/profile
5、修改Spark配置文件
复制代码
[root@keep-hadoop conf]# cp spark-env.sh.template spark-env.sh
[root@keep-hadoop conf]# vim spark-env.sh
export SCALA_HOME=/usr/local/src/scala-2.11.8
export JAVA_HOME=/usr/local/src/jdk1.8.0_144
export HADOOP_HOME=/usr/local/src/hadoop-2.6.1
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export SPARK_MASTER_IP=master
export SPARK_LOCAL_DIRS=/usr/local/src/spark-2.0.2-bin-hadoop2.6
export SPARK_DRIVER_MEMORY=1G
6、启动集群
复制代码
[root@keep-hadoop sbin]# ./start-all.sh
starting org.apache.spark.deploy.master.Master, logging to /usr/local/src/spark-2.0.2-bin-hadoop2.6/logs/spark-root-org.apache.spark.deploy.master.Master-1-keep-hadoop.out
localhost: starting org.apache.spark.deploy.worker.Worker, logging to /usr/local/src/spark-2.0.2-bin-hadoop2.6/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-keep-hadoop.out
[root@keep-hadoop sbin]# jps
17763 SecondaryNameNode
18102 NodeManager
17496 NameNode
17608 DataNode
31337 Master       
17978 ResourceManager
31436 Worker
31628 Jps
7、验证

# 本地模式

spark_path:

复制代码
[root@keep-hadoop spark-2.0.2-bin-hadoop2.6]# bin/run-example SparkPi 10 --master local[2]

# 集群Standalone

spark_2.x:

复制代码
[root@keep-hadoop spark-2.0.2-bin-hadoop2.6]# bin/spark-submit --class org.apache.spark.examples.SparkPi --master spark://192.168.122.28:7077 examples/jars/spark-examples_2.11-2.0.2.jar 10

# 集群spark on Yarn

spark_2.x:

复制代码
[root@keep-hadoop spark-2.0.2-bin-hadoop2.6]# bin/spark-submit --class org.apache.spark.examples.SparkPi --master yarn-cluster examples/jars/spark-examples_2.11-2.0.2.jar 10
8、网页监控面板
复制代码
http://192.168.122.28:8080
相关推荐
Flash.kkl2 小时前
Linux——进程信号
运维·服务器
苏宸啊4 小时前
Linux权限
linux·运维·服务器
Gofarlic_oms14 小时前
Windchill用户登录与模块访问失败问题排查与许可证诊断
大数据·运维·网络·数据库·人工智能
xqhoj4 小时前
Linux——make、makefile
linux·运维·服务器
文亭湖畔程序猿4 小时前
Debian 12 日常命令 & nano 快捷键速查表
运维·debian
张童瑶4 小时前
Linux 在线安装编译Python3.11
linux·运维·python3.11
ziqibit4 小时前
debian Live with Persistence 持久化U盘的debian系统
运维·debian
Shi_haoliu4 小时前
SolidTime 在 Rocky Linux 9.5 上的完整部署流程
linux·运维·nginx·postgresql·vue·php·laravel
Zoey的笔记本5 小时前
2026告别僵化工作流:支持自定义字段的看板工具选型与部署指南
大数据·前端·数据库
lingling0095 小时前
2026 年 BI 发展新趋势:AI 功能如何让数据分析工具 “思考” 和 “对话”?
大数据·人工智能·数据分析