如何搭建spark yarn 模式的集群

1. 环境准备

  • 集群中的每台节点都要安装好 Java 环境(建议 Java 8 及以上版本)。
  • 确保所有节点间能通过 SSH 无密码登录。
  • 安装并配置好 Hadoop 集群,因为 YARN 是 Hadoop 的资源管理系统。

2.配置Hadoop

core-site.xml

<configuration>

<property>

<name>fs.defaultFS</name>

<value>hdfs://namenode:9000</value>

</property>

</configuration>

hdfs-site.xml

复制代码
<configuration>
    <property>
        <name>dfs.replication</name>
        <value>3</value>
    </property>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>/data/hadoop/namenode</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>/data/hadoop/datanode</value>
    </property>
</configuration>
  • yarn-site.xml
复制代码
<configuration>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>resourcemanager</value>
    </property>
</configuration>
  • mapred-site.xml
java 复制代码
<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>

在 NameNode 节点上格式化 HDFS:

hdfs namenode -format

启动 HDFS 和 YARN:

start-dfs.sh

start-yarn.sh

3.下载spark

将下载好的spark拖入opt中创建的文件夹module将他解压至创建的文件夹software中

wget https://downloads.apache.org/spark/spark-3.3.2/spark-3.3.2-bin-hadoop3.tgz tar -zxvf spark-3.3.2-bin-hadoop3.tgz -C /opt

3.1配置环境变量

编辑 /etc/profile 文件,添加如下内容:

export SPARK_HOME=/opt/spark-3.3.2-bin-hadoop3 export PATH=PATH:SPARK_HOME/bin:$SPARK_HOME/sbin

使其生效

source /etc/profile

3.3 配置 Spark 核心文件

node1 节点上编辑以下文件:

  • spark-env.sh

cp /opt/spark-3.3.2-bin-hadoop3/conf/spark-env.sh.template /opt/spark-3.3.2-bin-hadoop3/conf/spark-env.sh vim /opt/spark-3.3.2-bin-hadoop3/conf/spark-env.sh

添加内容:

export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64 export HADOOP_CONF_DIR=/opt/hadoop-3.3.4/etc/hadoop export SPARK_MASTER_HOST=node1 export SPARK_LOCAL_IP=node1 export SPARK_HISTORY_OPTS="-Dspark.history.fs.logDirectory=hdfs://node1:9000/spark-logs -Dspark.history.ui.port=18080"

  • spark-defaults.conf

cp /opt/spark-3.3.2-bin-hadoop3/conf/spark-defaults.conf.template /opt/spark-3.3.2-bin-hadoop3/conf/spark-defaults.conf vim /opt/spark-3.3.2-bin-hadoop3/conf/spark-defaults.conf

添加如下内容

spark.master yarn spark.submit.deployMode cluster spark.yarn.am.memory 1024m spark.executor.memory 1024m spark.eventLog.enabled true spark.eventLog.dir hdfs://node1:9000/spark-logs

3.4同步到其他节点

scp -r /opt/spark-3.3.2-bin-hadoop3/conf node2:/opt/spark-3.3.2-bin-hadoop3/ scp -r /opt/spark-3.3.2-bin-hadoop3/conf node3:/opt/spark-3.3.2-bin-hadoop3/

3.5创建spark日志

hdfs dfs -mkdir -p /spark-logs

3.6 启动 Spark History Server

node1 节点上执行:

start-history-server.sh

4.测试集群

spark-submit --class org.apache.spark.examples.SparkPi \ --master yarn \ --deploy-mode cluster \ /opt/spark-3.3.2-bin-hadoop3/examples/jars/spark-examples_2.12-3.3.2.jar \ 10

相关推荐
antzou19 小时前
Eclipse RCP企业级应用实践——POST API
eclipse·效率工具·开发者工具·post api
一只专注api接口开发的技术猿19 小时前
微服务架构下集成淘宝商品 API 的实践与思考
java·大数据·开发语言·数据库·微服务·架构
AC赳赳老秦19 小时前
Dify工作流+DeepSeek:运维自动化闭环(数据采集→报告生成)
android·大数据·运维·数据库·人工智能·golang·deepseek
明洞日记19 小时前
【软考每日一练009】计算机系统性能评价:基准程序分类与 TPC 实战案例详解
大数据·数据库
李慕婉学姐19 小时前
【开题答辩过程】以《基于Spring Boot和大数据的医院挂号系统的设计与实现》为例,不知道这个选题怎么做的,不知道这个选题怎么开题答辩的可以进来看看
大数据·spring boot·后端
汽车仪器仪表相关领域19 小时前
全程高温伴热,NOx瞬态精准捕捉:MEXA-1170HCLD加热型NOx测定装置项目实战全解
大数据·服务器·网络·人工智能·功能测试·单元测试·可用性测试
橙露20 小时前
嵌入式实时操作系统 FreeRTOS:任务调度与信号量的核心应用
java·大数据·服务器
DO_Community20 小时前
DigitalOcean携手Persistent达成战略合作,让 AI 更亲民、更易扩展
大数据·人工智能·ai·llm·区块链
spencer_tseng20 小时前
eclipse4.7 droolsjbpm-tools-distribution-7.46.0.Final.zip
eclipse·jbpm
乾元20 小时前
数据为王——安全数据集的清洗与特征工程
大数据·网络·人工智能·安全·web安全·机器学习·架构