如何搭建spark yarn模式集群的集群

以下是搭建 Spark YARN 模式集群的一般步骤:

准备工作

  • 确保集群中各节点已安装并配置好 Java 环境,且版本符合 Spark 要求。
  • 规划好集群中节点的角色,如 Master 节点、Worker 节点等,并确保各节点之间网络畅通,能相互访问。

安装 Hadoop

配置 Spark on YARN

  • 下载适合你系统的 Hadoop 版本,解压到指定目录。
  • 配置 Hadoop 的核心配置文件,如core-site.xmlhdfs-site.xmlmapred-site.xmlyarn-site.xml,设置相关参数,如文件系统路径、资源分配等。
  • 格式化 Hadoop 文件系统(通常在 Master 节点上执行):hdfs namenode -format
  • 启动 Hadoop 集群,包括 NameNode、DataNode、ResourceManager 和 NodeManager 等服务。

安装 Spark

  • 下载 Spark 安装包,解压到集群各节点的指定目录。
  • 进入 Spark 的配置目录,复制spark-env.sh.templatespark-env.sh,并进行编辑,设置以下环境变量:
    • export JAVA_HOME=/path/to/java(替换为实际的 Java 安装路径)
    • export HADOOP_CONF_DIR=/path/to/hadoop/conf(Hadoop 配置文件目录)
    • 可以根据需要设置其他参数,如SPARK_MEM等。
  • 同样在配置目录下,复制slaves.templateslaves,在slaves文件中列出所有 Worker 节点的主机名或 IP 地址,每行一个。
  • 编辑spark-defaults.conf文件,添加或修改以下配置:
    • spark.master yarn:指定 Spark 运行在 YARN 模式下。
    • spark.submit.deployMode cluster:设置提交模式为集群模式。
    • 还可以配置其他参数,如spark.executor.memoryspark.executor.cores等,以调整资源分配。

启动 Spark 集群

  • 在 Master 节点上,使用以下命令提交一个 Spark 示例应用程序来测试集群是否正常运行:
bash 复制代码
spark-submit \
--class org.apache.spark.examples.SparkPi \
--master yarn \
--deploy-mode cluster \
/path/to/spark-examples.jar \
[parameters]
  • 其中,/path/to/spark-examples.jar是 Spark 示例应用程序的路径,[parameters]是应用程序所需的参数。

验证集群

  • 可以通过 Hadoop 的 YARN Web 界面(通常在http://resourcemanager-host:8088)查看应用程序的运行状态和资源使用情况。
  • 也可以通过 Spark 的 Web 界面(通常在http://master-host:4040,如果是集群模式,可能在 YARN 的应用程序页面中找到 Spark 的 Web UI 链接)查看 Spark 应用程序的详细信息,如执行计划、任务进度等。
相关推荐
hzj64 小时前
Sentinel学习
分布式·学习·sentinel
麻芝汤圆5 小时前
在 Sheel 中运行 Spark:开启高效数据处理之旅
大数据·前端·javascript·hadoop·分布式·ajax·spark
Eternity......5 小时前
如何在idea中写spark程序
大数据·spark
lix的小鱼6 小时前
在sheel中运行Spark
大数据·分布式·spark
代码的奴隶(艾伦·耶格尔)6 小时前
RabbitMq(尚硅谷)
分布式·rabbitmq
Aaaa小嫒同学6 小时前
spark local模式
大数据·分布式·spark
IvanCodes6 小时前
二、Hadoop狭义和广义的理解
大数据·hadoop·分布式
星川皆无恙6 小时前
大数据产品销售数据分析:基于Python机器学习产品销售数据爬虫可视化分析预测系统设计与实现
大数据·运维·爬虫·python·机器学习·数据分析·系统架构
知识的小蚂蚁6 小时前
分布式、高并发-Day03
分布式
学java的cc7 小时前
Spring AI快速入门
java·大数据·spring