hadoop集成spark(spark on yarn)

文章目录

hadoop集成spark(spark on yarn)

在hadoop搭建完成的前提下,集成spark:hadoop搭建请参考hadoop集群搭建

下载spark软件包

有很多种类spark的包,因为我是要集成到hadoop里面所以我选择spark-3.4.3-bin-hadoop3-scala2.13.tgz (集成hadoop自带scala)

复制代码
# 在master节点下载
wget https://downloads.apache.org/spark/spark-3.4.3/spark-3.4.3-bin-hadoop3-scala2.13.tgz 
# 解压
tar -zxvf spark-3.4.3-bin-hadoop3-scala2.13.tgz 
# 重命名 (原始包名太长了)
mv spark-3.4.3-bin-hadoop3-scala2.13 spark

spark文件设置

复制代码
#spark配置文件的路径
cd /home/ldsx/down_load/spark_data/spark/conf

spark-env.sh

配置spark自用环境变量

可以自己创建也可以copy,因为template就是空的

复制代码
cp spark-env.sh.template spark-env.sh
vim spark-env.sh
#添加一下内容 换成自己的部署的实际信息即可
export JAVA_HOME=/home/ldsx/down_load/jdk_data_new/jdk1.8.0_411
export SPARK_MASTER_IP=192.168.0.76
export HADOOP_HOME=/home/ldsx/down_load/hadoop_data/hadoop-3.2.4
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

workers

低版本叫slaves,高版本为workers

配置工作机器

复制代码
cp workers.template  workers
vim workers
# 添加需要作为spark计算的机器
master
hadoop01

环境变量设置

复制代码
sudo vim /etc/profile.d/my_env.sh
#配置spark路径方便使用
#spark_home
export SPARK_HOME=/home/ldsx/down_load/spark_data/spark
export PATH=$PATH:$SPARK_HOME/bin

source  /etc/profile.d/my_env.sh

发送spark到其余机器

复制代码
#因为做了免密直接传送
scp -r spark包 节点机器:相同路径
#我的matser 跟节点的目录结构都是完全一致的
scp -r spark_data hadoop01:/home/ldsx/down_load

启动spark

复制代码
#因为hadoop里面也有start-all.sh,防止冲突直接进入spark目录下启动
cd /home/ldsx/down_load/spark_data/spark/sbin
./start-all.sh

8080:master默认Web端口

7077:master通信端口

master下进程,因为master配置成了worker机所以会同时存在Master,Worker进程

使用spark-submit启动一个test.py的任务后查看yarn与spark的UI

yarn界面

spark界面

相关推荐
心止水j1 小时前
spark
javascript·数据库·spark
Hello.Reader4 小时前
Flink Checkpoint 通用调优方案三种画像 + 配置模板 + 容量估算 + 巡检脚本 + 告警阈值
大数据·flink
Hy行者勇哥7 小时前
公司全场景运营中 PPT 的类型、功能与作用详解
大数据·人工智能
liliangcsdn7 小时前
如何基于ElasticsearchRetriever构建RAG系统
大数据·elasticsearch·langchain
乐迪信息7 小时前
乐迪信息:基于AI算法的煤矿作业人员安全规范智能监测与预警系统
大数据·人工智能·算法·安全·视觉检测·推荐算法
极验7 小时前
iPhone17实体卡槽消失?eSIM 普及下的安全挑战与应对
大数据·运维·安全
B站_计算机毕业设计之家8 小时前
推荐系统实战:python新能源汽车智能推荐(两种协同过滤+Django 全栈项目 源码)计算机专业✅
大数据·python·django·汽车·推荐系统·新能源·新能源汽车
The Sheep 20239 小时前
WPF自定义路由事件
大数据·hadoop·wpf
SelectDB技术团队9 小时前
Apache Doris 内部数据裁剪与过滤机制的实现原理 | Deep Dive
大数据·数据库·apache·数据库系统·数据裁剪
WLJT12312312310 小时前
科技赋能塞上农业:宁夏从黄土地到绿硅谷的蝶变
大数据·人工智能·科技