spark 单机安装

1、安装jdk、scala(提前安装准备)
复制代码
[root@keep-hadoop ~]# java -version
java version "1.8.0_172"
Java(TM) SE Runtime Environment (build 1.8.0_172-b11)
Java HotSpot(TM) 64-Bit Server VM (build 25.172-b11, mixed mode)
[root@keep-hadoop ~]# scala -version
Scala code runner version 2.11.8 -- Copyright 2002-2016, LAMP/EPFL
2、下载安装包

https://downloads.apache.org/spark/

3、解压安装包到指定目录
复制代码
[root@keep-hadoop hadoop]# tar -zxvf spark-1.6.3-bin-hadoop2.6.tgz -C /usr/local/src/
4、配置环境变量
复制代码
[root@keep-hadoop ~]# vim /etc/profile
export SPARK_HOME=/usr/local/src/spark-2.0.2-bin-hadoop2.6
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin

[root@keep-hadoop ~]# source /etc/profile
5、修改Spark配置文件
复制代码
[root@keep-hadoop conf]# cp spark-env.sh.template spark-env.sh
[root@keep-hadoop conf]# vim spark-env.sh
export SCALA_HOME=/usr/local/src/scala-2.11.8
export JAVA_HOME=/usr/local/src/jdk1.8.0_144
export HADOOP_HOME=/usr/local/src/hadoop-2.6.1
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export SPARK_MASTER_IP=master
export SPARK_LOCAL_DIRS=/usr/local/src/spark-2.0.2-bin-hadoop2.6
export SPARK_DRIVER_MEMORY=1G
6、启动集群
复制代码
[root@keep-hadoop sbin]# ./start-all.sh
starting org.apache.spark.deploy.master.Master, logging to /usr/local/src/spark-2.0.2-bin-hadoop2.6/logs/spark-root-org.apache.spark.deploy.master.Master-1-keep-hadoop.out
localhost: starting org.apache.spark.deploy.worker.Worker, logging to /usr/local/src/spark-2.0.2-bin-hadoop2.6/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-keep-hadoop.out
[root@keep-hadoop sbin]# jps
17763 SecondaryNameNode
18102 NodeManager
17496 NameNode
17608 DataNode
31337 Master       
17978 ResourceManager
31436 Worker
31628 Jps
7、验证

# 本地模式

spark_path:

复制代码
[root@keep-hadoop spark-2.0.2-bin-hadoop2.6]# bin/run-example SparkPi 10 --master local[2]

# 集群Standalone

spark_2.x:

复制代码
[root@keep-hadoop spark-2.0.2-bin-hadoop2.6]# bin/spark-submit --class org.apache.spark.examples.SparkPi --master spark://192.168.122.28:7077 examples/jars/spark-examples_2.11-2.0.2.jar 10

# 集群spark on Yarn

spark_2.x:

复制代码
[root@keep-hadoop spark-2.0.2-bin-hadoop2.6]# bin/spark-submit --class org.apache.spark.examples.SparkPi --master yarn-cluster examples/jars/spark-examples_2.11-2.0.2.jar 10
8、网页监控面板
复制代码
http://192.168.122.28:8080
相关推荐
谷哥的小弟19 小时前
(最新版)腾讯云服务器项目部署教程(4)— 部署项目
linux·运维·服务器·云计算·腾讯云·云服务器·项目部署
楼田莉子19 小时前
仿muduo库的高并发服务器——buffer缓冲区模块、socket模块
运维·服务器
财经资讯数据_灵砚智能19 小时前
基于全球经济类多源新闻的NLP情感分析与数据可视化(日间)2026年5月1日
大数据·人工智能·python·信息可视化·自然语言处理
无忧智库19 小时前
城市级实景三维底座建设:从倾斜摄影到数字孪生的完整工程解构(WORD)
大数据
starvapour19 小时前
INTEL-C621A芯片组服务器主板如何修改pcie等级
运维
酸钠鈀19 小时前
AI M61SDK Ubuntu 环境搭建
linux·运维·ubuntu
2601_9498179219 小时前
nginx 代理 redis
运维·redis·nginx
JiaWen技术圈19 小时前
netfiler 协议栈钩子
linux·运维·服务器·安全
budingxiaomoli19 小时前
服务注册-服务实现
运维·springcloud
java1234_小锋19 小时前
解释一下NGINX的反向代理和正向代理的区别?
运维·nginx