spark配置

一、本地部署 local

1、准备spark配置文件,并上传到centos

我用夸克网盘分享了「spark-3.0.1-bin-hadoop2.7.tgz」,点击链接即可保存。打开「夸克APP」,无需下载在线播放视频,畅享原画5倍速,支持电视投屏。

链接:https://pan.quark.cn/s/0c0404eab4bb

2、解压到指定目录

复制代码
tar -zxvf spark-3.0.1-bin-hadoop2.7.tgz -C /root

3、将 spark-3.0.1-bin-hadoop2.7改名为spark-local

复制代码
mv spark-3.0.1-bin-hadoop2.7 spark-local

4、进入spark-local

复制代码
cd spark-local

5、启动spark

复制代码
bin/spark-shell

出现scala这个代表启动成功

6、启动后可以去http://192.168.100.132:4040查看任务执行情况

7、在spark-local目录下新建一个data目录,并编辑一个1.txt,内容如下:

hello world

hello spark

hello java

hello python

8、在scala下执行指令测试一下

复制代码
sc.textFile("data/1.txt").flatMap(_.split("")).map((_,1)).reduceByKey(_+_).collect

9、还可以将idea的文件打包,放在spark中运行

点击maven-->双击package,在下面控制台可以看到保存的路径

将这个压缩包直接上传到centos,不用解压

在spark-local目录下执行下面的指令

复制代码
bin/spark-submit \
--class spark.core.demo \
--master spark://192.168.100.132:7070 \
/root/sparkcore-1.0-SNAPSHOT.jar

二、部署 standalone

1、还是之前的文件spark-3.0.1-bin-hadoop2.7.tgz解压到root下

复制代码
tar -zxvf spark-3.0.1-bin-hadoop2.7.tgz -C /root

2、进入root下,将spark-3.0.1-bin-hadoop2.7名字改为spark-standalone

复制代码
mv spark-3.0.1-bin-hadoop2.7 spark-standalone

3、进入spark-standalone/conf

复制代码
cd spark-standalone/conf

4、将slaves.template重命名为slaves

复制代码
mv slaves.template slaves

5、编辑slaves,把localhost.localdomain改为localhost,

复制代码
vim slaves

6、将spark-env.sh.template 重命名为spark-env.sh

复制代码
mv spark-env.sh.template spark-env.sh

7、编辑spark-env.sh,在文件最后添加三行命令

复制代码
vim spark-env.sh

export JAVA_HOME=/home/jdk1.8.0_144
SPARK_MASTER_HOST=192.168.100.132
SPARK_MASTER_PORT=7077


//如何查看JDK版本:echo $JAVA_HOME

8、回到上一级目录spark-standalone

复制代码
cd ..

9、启动spark进程

复制代码
sbin/start-all.sh

查看进程

10、启动hadoop进程

复制代码
start-all.sh

11、进入http://192.168.100.132:8080

12、执行一条指令试一下

复制代码
bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master spark://192.168.100.132:7077 \
./examples/jars/spark-examples_2.12-3.0.1.jar \
10

三、部署历史服务

1、进入/root/spark-standalone/conf

复制代码
cd /root/spark-standalone/conf

2、修改 spark-defaults.conf.template 文件名为 spark-defaults.conf

复制代码
mv spark-defaults.conf.template spark-defaults.conf

3、 修改 spark-default.conf 文件,配置日志存储路径

复制代码
vim spark-defaults.conf

注意:需要启动 hadoop 集群,HDFS 上的 directory 目录需要提前存在。

复制代码
hdfs dfs -mkdir /directory

4、修改 spark-env.sh 文件, 添加日志配置

复制代码
vim spark-env.sh

export SPARK_HISTORY_OPTS="
-Dspark.history.ui.port=18080
-Dspark.history.fs.logDirectory=hdfs://localhost:9000/directory
-Dspark.history.retainedApplications=30"

5、重新启动集群和历史服务

复制代码
cd /root/spark-standalone
sbin/stop-all.sh
sbin/start-all.sh
sbin/start-history-server.sh

6、重新执行任务

复制代码
bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master spark://192.168.100.132:7077 \
./examples/jars/spark-examples_2.12-3.0.1.jar \
10

7、查看历史服务:http://192.168.100.132:18080

四、Yarn模式

1、还是之前的文件spark-3.0.1-bin-hadoop2.7.tgz解压到root下

复制代码
tar -zxvf spark-3.0.1-bin-hadoop2.7.tgz -C /root

2、进入root下,将spark-3.0.1-bin-hadoop2.7名字改为spark-yarn

复制代码
mv spark-3.0.1-bin-hadoop2.7 spark-yarn

3、修改hadoop配置文件/home/hadoop-2.8.2/etc/hadoop/hadoop/yarn-site.xml, 并分发

复制代码
<property>
            <name>yarn.nodemanager.pmem-check-enabled</name>
            <value>false</value>
        </property>
        <property>
            <name>yarn.nodemanager.vmem-check-enabled</name>
            <value>false</value>
        </property>

4、修改conf/spark-env.sh,添加 JAVA_HOME 和YARN_CONF_DIR配置

复制代码
cd /root/spark-yarn/conf
mv spark-env.sh.template spark-env.sh 
vim spark-env.sh

5、启动HDFS 以及YARN集群

复制代码
start-all.sh
start-yarn.sh

6、提交应用

复制代码
bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master yarn \
--deploy-mode cluster \
./examples/jars/spark-examples_2.12-3.0.1.jar \
10

7、进入http://192.168.100.132:8088

相关推荐
折哥的程序人生 · 物流技术专研1 天前
效率翻倍:出版社多库区复合型 ABC 仓储拣选体系全解(含直发/越库/箱式立库/托盘立库)
大数据
Elastic 中国社区官方博客1 天前
Elasticsearch:智能搜索 - AI builder 及 skills
大数据·人工智能·elasticsearch·搜索引擎·ai·信息可视化·全文检索
跨境摸鱼1 天前
低价模型承压阶段跨境品牌如何把重心转向复购与客单
大数据·人工智能·跨境电商·亚马逊·跨境
果汁华1 天前
LangGraph:构建状态化 AI 代理的革命性编排框架
大数据·人工智能
面向Google编程1 天前
从零学习Kafka:生产者分区机制
大数据·kafka
盘古信息IMS1 天前
全域场景重构,激活智造新未来!盘古信息机加行业数智化解决方案深度解析
大数据·人工智能
跨境卫士-小汪1 天前
多国站点利润分化加剧跨境卖家如何重新排优先级
大数据·人工智能·产品运营·跨境电商·跨境
精益数智工坊1 天前
物料管理是什么?物料管理的具体工作有哪些?
大数据·前端·数据库·人工智能·精益工程
xixixi777771 天前
全模态原生大脑降临:GPT-5.5(Spud)发布,推理/编码提升30%,百万上下文+原生电脑控制,开启Agent新纪元
大数据·网络·人工智能·gpt·安全·电脑·量子计算
MoonBit月兔1 天前
MoonBit 大型软件合成挑战赛决赛暨 Meetup 0.9 版本专场回顾
大数据·开发语言·人工智能·moonbit