spark配置

一、本地部署 local

1、准备spark配置文件,并上传到centos

我用夸克网盘分享了「spark-3.0.1-bin-hadoop2.7.tgz」,点击链接即可保存。打开「夸克APP」,无需下载在线播放视频,畅享原画5倍速,支持电视投屏。

链接:https://pan.quark.cn/s/0c0404eab4bb

2、解压到指定目录

复制代码
tar -zxvf spark-3.0.1-bin-hadoop2.7.tgz -C /root

3、将 spark-3.0.1-bin-hadoop2.7改名为spark-local

复制代码
mv spark-3.0.1-bin-hadoop2.7 spark-local

4、进入spark-local

复制代码
cd spark-local

5、启动spark

复制代码
bin/spark-shell

出现scala这个代表启动成功

6、启动后可以去http://192.168.100.132:4040查看任务执行情况

7、在spark-local目录下新建一个data目录,并编辑一个1.txt,内容如下:

hello world

hello spark

hello java

hello python

8、在scala下执行指令测试一下

复制代码
sc.textFile("data/1.txt").flatMap(_.split("")).map((_,1)).reduceByKey(_+_).collect

9、还可以将idea的文件打包,放在spark中运行

点击maven-->双击package,在下面控制台可以看到保存的路径

将这个压缩包直接上传到centos,不用解压

在spark-local目录下执行下面的指令

复制代码
bin/spark-submit \
--class spark.core.demo \
--master spark://192.168.100.132:7070 \
/root/sparkcore-1.0-SNAPSHOT.jar

二、部署 standalone

1、还是之前的文件spark-3.0.1-bin-hadoop2.7.tgz解压到root下

复制代码
tar -zxvf spark-3.0.1-bin-hadoop2.7.tgz -C /root

2、进入root下,将spark-3.0.1-bin-hadoop2.7名字改为spark-standalone

复制代码
mv spark-3.0.1-bin-hadoop2.7 spark-standalone

3、进入spark-standalone/conf

复制代码
cd spark-standalone/conf

4、将slaves.template重命名为slaves

复制代码
mv slaves.template slaves

5、编辑slaves,把localhost.localdomain改为localhost,

复制代码
vim slaves

6、将spark-env.sh.template 重命名为spark-env.sh

复制代码
mv spark-env.sh.template spark-env.sh

7、编辑spark-env.sh,在文件最后添加三行命令

复制代码
vim spark-env.sh

export JAVA_HOME=/home/jdk1.8.0_144
SPARK_MASTER_HOST=192.168.100.132
SPARK_MASTER_PORT=7077


//如何查看JDK版本:echo $JAVA_HOME

8、回到上一级目录spark-standalone

复制代码
cd ..

9、启动spark进程

复制代码
sbin/start-all.sh

查看进程

10、启动hadoop进程

复制代码
start-all.sh

11、进入http://192.168.100.132:8080

12、执行一条指令试一下

复制代码
bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master spark://192.168.100.132:7077 \
./examples/jars/spark-examples_2.12-3.0.1.jar \
10

三、部署历史服务

1、进入/root/spark-standalone/conf

复制代码
cd /root/spark-standalone/conf

2、修改 spark-defaults.conf.template 文件名为 spark-defaults.conf

复制代码
mv spark-defaults.conf.template spark-defaults.conf

3、 修改 spark-default.conf 文件,配置日志存储路径

复制代码
vim spark-defaults.conf

注意:需要启动 hadoop 集群,HDFS 上的 directory 目录需要提前存在。

复制代码
hdfs dfs -mkdir /directory

4、修改 spark-env.sh 文件, 添加日志配置

复制代码
vim spark-env.sh

export SPARK_HISTORY_OPTS="
-Dspark.history.ui.port=18080
-Dspark.history.fs.logDirectory=hdfs://localhost:9000/directory
-Dspark.history.retainedApplications=30"

5、重新启动集群和历史服务

复制代码
cd /root/spark-standalone
sbin/stop-all.sh
sbin/start-all.sh
sbin/start-history-server.sh

6、重新执行任务

复制代码
bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master spark://192.168.100.132:7077 \
./examples/jars/spark-examples_2.12-3.0.1.jar \
10

7、查看历史服务:http://192.168.100.132:18080

四、Yarn模式

1、还是之前的文件spark-3.0.1-bin-hadoop2.7.tgz解压到root下

复制代码
tar -zxvf spark-3.0.1-bin-hadoop2.7.tgz -C /root

2、进入root下,将spark-3.0.1-bin-hadoop2.7名字改为spark-yarn

复制代码
mv spark-3.0.1-bin-hadoop2.7 spark-yarn

3、修改hadoop配置文件/home/hadoop-2.8.2/etc/hadoop/hadoop/yarn-site.xml, 并分发

复制代码
<property>
            <name>yarn.nodemanager.pmem-check-enabled</name>
            <value>false</value>
        </property>
        <property>
            <name>yarn.nodemanager.vmem-check-enabled</name>
            <value>false</value>
        </property>

4、修改conf/spark-env.sh,添加 JAVA_HOME 和YARN_CONF_DIR配置

复制代码
cd /root/spark-yarn/conf
mv spark-env.sh.template spark-env.sh 
vim spark-env.sh

5、启动HDFS 以及YARN集群

复制代码
start-all.sh
start-yarn.sh

6、提交应用

复制代码
bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master yarn \
--deploy-mode cluster \
./examples/jars/spark-examples_2.12-3.0.1.jar \
10

7、进入http://192.168.100.132:8088

相关推荐
hellojackjiang20112 小时前
如何保障分布式IM聊天系统的消息可靠性(即消息不丢)
分布式·网络安全·架构·信息与通信
档案宝档案管理2 小时前
档案管理系统如何支持多级审批流?自定义节点与角色权限详解
大数据·人工智能·档案·档案管理
BYSJMG3 小时前
计算机毕业设计选题推荐:基于Hadoop的城市交通数据可视化系统
大数据·vue.js·hadoop·分布式·后端·信息可视化·课程设计
BYSJMG3 小时前
Python毕业设计选题推荐:基于大数据的美食数据分析与可视化系统实战
大数据·vue.js·后端·python·数据分析·课程设计·美食
阿珍爱上了阿强2.03 小时前
Elasticsearch 实战:客户数据索引设计与精准筛选查询实践
大数据·elasticsearch·搜索引擎
一只大袋鼠3 小时前
分布式 ID 生成:雪花算法原理、实现与 MyBatis-Plus 实战
分布式·算法·mybatis
ba_pi3 小时前
每天写点什么2026-02-2(1.5)数字化转型和元宇宙
大数据·人工智能
小W与影刀RPA3 小时前
【影刀RPA】:智能过滤敏感词,高效输出表格
大数据·人工智能·python·低代码·自动化·rpa·影刀rpa
远方16093 小时前
112-Oracle database 26ai下载和安装环境准备
大数据·数据库·sql·oracle·database