spark配置

一、本地部署 local

1、准备spark配置文件,并上传到centos

我用夸克网盘分享了「spark-3.0.1-bin-hadoop2.7.tgz」,点击链接即可保存。打开「夸克APP」,无需下载在线播放视频,畅享原画5倍速,支持电视投屏。

链接:https://pan.quark.cn/s/0c0404eab4bb

2、解压到指定目录

复制代码
tar -zxvf spark-3.0.1-bin-hadoop2.7.tgz -C /root

3、将 spark-3.0.1-bin-hadoop2.7改名为spark-local

复制代码
mv spark-3.0.1-bin-hadoop2.7 spark-local

4、进入spark-local

复制代码
cd spark-local

5、启动spark

复制代码
bin/spark-shell

出现scala这个代表启动成功

6、启动后可以去http://192.168.100.132:4040查看任务执行情况

7、在spark-local目录下新建一个data目录,并编辑一个1.txt,内容如下:

hello world

hello spark

hello java

hello python

8、在scala下执行指令测试一下

复制代码
sc.textFile("data/1.txt").flatMap(_.split("")).map((_,1)).reduceByKey(_+_).collect

9、还可以将idea的文件打包,放在spark中运行

点击maven-->双击package,在下面控制台可以看到保存的路径

将这个压缩包直接上传到centos,不用解压

在spark-local目录下执行下面的指令

复制代码
bin/spark-submit \
--class spark.core.demo \
--master spark://192.168.100.132:7070 \
/root/sparkcore-1.0-SNAPSHOT.jar

二、部署 standalone

1、还是之前的文件spark-3.0.1-bin-hadoop2.7.tgz解压到root下

复制代码
tar -zxvf spark-3.0.1-bin-hadoop2.7.tgz -C /root

2、进入root下,将spark-3.0.1-bin-hadoop2.7名字改为spark-standalone

复制代码
mv spark-3.0.1-bin-hadoop2.7 spark-standalone

3、进入spark-standalone/conf

复制代码
cd spark-standalone/conf

4、将slaves.template重命名为slaves

复制代码
mv slaves.template slaves

5、编辑slaves,把localhost.localdomain改为localhost,

复制代码
vim slaves

6、将spark-env.sh.template 重命名为spark-env.sh

复制代码
mv spark-env.sh.template spark-env.sh

7、编辑spark-env.sh,在文件最后添加三行命令

复制代码
vim spark-env.sh

export JAVA_HOME=/home/jdk1.8.0_144
SPARK_MASTER_HOST=192.168.100.132
SPARK_MASTER_PORT=7077


//如何查看JDK版本:echo $JAVA_HOME

8、回到上一级目录spark-standalone

复制代码
cd ..

9、启动spark进程

复制代码
sbin/start-all.sh

查看进程

10、启动hadoop进程

复制代码
start-all.sh

11、进入http://192.168.100.132:8080

12、执行一条指令试一下

复制代码
bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master spark://192.168.100.132:7077 \
./examples/jars/spark-examples_2.12-3.0.1.jar \
10

三、部署历史服务

1、进入/root/spark-standalone/conf

复制代码
cd /root/spark-standalone/conf

2、修改 spark-defaults.conf.template 文件名为 spark-defaults.conf

复制代码
mv spark-defaults.conf.template spark-defaults.conf

3、 修改 spark-default.conf 文件,配置日志存储路径

复制代码
vim spark-defaults.conf

注意:需要启动 hadoop 集群,HDFS 上的 directory 目录需要提前存在。

复制代码
hdfs dfs -mkdir /directory

4、修改 spark-env.sh 文件, 添加日志配置

复制代码
vim spark-env.sh

export SPARK_HISTORY_OPTS="
-Dspark.history.ui.port=18080
-Dspark.history.fs.logDirectory=hdfs://localhost:9000/directory
-Dspark.history.retainedApplications=30"

5、重新启动集群和历史服务

复制代码
cd /root/spark-standalone
sbin/stop-all.sh
sbin/start-all.sh
sbin/start-history-server.sh

6、重新执行任务

复制代码
bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master spark://192.168.100.132:7077 \
./examples/jars/spark-examples_2.12-3.0.1.jar \
10

7、查看历史服务:http://192.168.100.132:18080

四、Yarn模式

1、还是之前的文件spark-3.0.1-bin-hadoop2.7.tgz解压到root下

复制代码
tar -zxvf spark-3.0.1-bin-hadoop2.7.tgz -C /root

2、进入root下,将spark-3.0.1-bin-hadoop2.7名字改为spark-yarn

复制代码
mv spark-3.0.1-bin-hadoop2.7 spark-yarn

3、修改hadoop配置文件/home/hadoop-2.8.2/etc/hadoop/hadoop/yarn-site.xml, 并分发

复制代码
<property>
            <name>yarn.nodemanager.pmem-check-enabled</name>
            <value>false</value>
        </property>
        <property>
            <name>yarn.nodemanager.vmem-check-enabled</name>
            <value>false</value>
        </property>

4、修改conf/spark-env.sh,添加 JAVA_HOME 和YARN_CONF_DIR配置

复制代码
cd /root/spark-yarn/conf
mv spark-env.sh.template spark-env.sh 
vim spark-env.sh

5、启动HDFS 以及YARN集群

复制代码
start-all.sh
start-yarn.sh

6、提交应用

复制代码
bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master yarn \
--deploy-mode cluster \
./examples/jars/spark-examples_2.12-3.0.1.jar \
10

7、进入http://192.168.100.132:8088

相关推荐
Elastic 中国社区官方博客1 小时前
使用 Elastic 进行网络监控:统一网络可观测性
大数据·开发语言·网络·人工智能·elasticsearch·搜索引擎·全文检索
海兰2 小时前
Elasticsearch 9.x 借助神经模型优化中文文本分析
大数据·elasticsearch·搜索引擎
500佰5 小时前
Hive常见故障多案例FAQ宝典 --项目总结(宝典一)
大数据·linux·数据仓库·hive·hadoop·云计算·运维开发
家的尚尚签6 小时前
高定木作企业实践:案例分享与成果展示
大数据·人工智能·python
T06205147 小时前
【数据集】更新-各省平均受教育年限与学历结构数据(1993-2024年)
大数据
Dr.AE8 小时前
金蝶AI星辰 产品分析报告
大数据·人工智能
海兰9 小时前
ES 9.3.0 DSL 示例:从索引创建到混合搜索与 RRF 排序
大数据·数据库·elasticsearch
AI周红伟9 小时前
周红伟:Sglang+Vllm+Qwen3.5企业级部署案例实操
大数据·人工智能·大模型·智能体