如何搭建spark yarn模式的集群

1. 环境准备

  • 节点规划 :假设有三个节点,分别为 masterslave1slave2master 节点同时作为 Hadoop 的 NameNode 和 ResourceManager,slave1slave2 作为 DataNode 和 NodeManager。

  • 安装 JDK :确保所有节点都安装了 Java 8 或更高版本,并且配置好 JAVA_HOME 环境变量。

    示例:设置 JAVA_HOME

    export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-amd64
    export PATH=PATH:JAVA_HOME/bin

  • 配置 SSH 免密登录 :在 master 节点上生成 SSH 密钥,并将公钥分发到所有节点,包括 master 自身。

    在 master 节点生成密钥

    ssh-keygen -t rsa

    将公钥复制到所有节点

    ssh-copy-id master
    ssh-copy-id slave1
    ssh-copy-id slave2

2. 安装和配置 Hadoop

2.1 下载和解压 Hadoop

从 Apache 官网下载 Hadoop 3.x 版本,并解压到指定目录。

复制代码
wget https://downloads.apache.org/hadoop/common/hadoop-3.3.4/hadoop-3.3.4.tar.gz
tar -zxvf hadoop-3.3.4.tar.gz -C /usr/local
cd /usr/local
ln -s hadoop-3.3.4 hadoop
2.2 配置 Hadoop 环境变量

/etc/profile~/.bashrc 中添加以下内容:

复制代码
export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

使配置生效:

复制代码
source /etc/profile
2.3 配置 Hadoop 核心文件
  • core-site.xml

    <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://master:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/usr/local/hadoop/tmp</value> </property> </configuration>
  • hdfs-site.xml

xml

复制代码
<configuration>
    <property>
        <name>dfs.replication</name>
        <value>2</value>
    </property>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>/usr/local/hadoop/hdfs/namenode</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>/usr/local/hadoop/hdfs/datanode</value>
    </property>
</configuration>
  • mapred-site.xml

xml

复制代码
<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>
  • yarn-site.xml

xml

复制代码
<configuration>
    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>master</value>
    </property>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
</configuration>
2.4 配置从节点

$HADOOP_HOME/etc/hadoop/slaves 文件中添加从节点的主机名:

plaintext

复制代码
slave1
slave2
2.5 格式化 NameNode

master 节点上执行以下命令:

bash

复制代码
hdfs namenode -format
2.6 启动 Hadoop 集群

master 节点上启动 HDFS 和 YARN:

bash

复制代码
start-dfs.sh
start-yarn.sh

3. 安装和配置 Spark

3.1 下载和解压 Spark

从 Apache 官网下载 Spark 3.x 版本,并解压到指定目录。

bash

复制代码
wget https://downloads.apache.org/spark/spark-3.3.2/spark-3.3.2-bin-hadoop3.tgz
tar -zxvf spark-3.3.2-bin-hadoop3.tgz -C /usr/local
cd /usr/local
ln -s spark-3.3.2-bin-hadoop3 spark
3.2 配置 Spark 环境变量

/etc/profile~/.bashrc 中添加以下内容:

bash

复制代码
export SPARK_HOME=/usr/local/spark
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin

使配置生效:

bash

复制代码
source /etc/profile
3.3 配置 Spark 核心文件

bash

复制代码
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-amd64
export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop
export SPARK_EXECUTOR_CORES=2
export SPARK_EXECUTOR_MEMORY=2G
export SPARK_DRIVER_MEMORY=1G
  • spark-defaults.conf

plaintext

复制代码
spark.master yarn
spark.submit.deployMode cluster
3.4 分发 Spark 到所有节点

将 Spark 目录复制到所有节点:

bash

复制代码
scp -r /usr/local/spark slave1:/usr/local
scp -r /usr/local/spark slave2:/usr/local

4. 验证集群

master 节点上运行一个简单的 Spark 应用程序:

bash

复制代码
spark-submit --class org.apache.spark.examples.SparkPi \
    --master yarn \
    --deploy-mode cluster \
    $SPARK_HOME/examples/jars/spark-examples_2.12-3.3.2.jar 10

如果应用程序成功运行并输出结果,则说明 Spark YARN 模式集群搭建成功。

5. 常见问题及解决方法

  • 网络问题:确保所有节点之间可以相互 ping 通,并且防火墙已开放必要的端口。
  • 权限问题:确保所有节点上的 Hadoop 和 Spark 目录具有正确的权限。
  • 配置问题 :检查所有配置文件是否正确,特别是 core-site.xmlhdfs-site.xmlyarn-site.xmlspark-env.sh
相关推荐
武子康2 小时前
大数据-237 离线数仓 - Hive 广告业务实战:ODS→DWD 事件解析、广告明细与转化分析落地
大数据·后端·apache hive
大大大大晴天4 小时前
Flink生产问题排障-Kryo serializer scala extensions are not available
大数据·flink
武子康2 天前
大数据-236 离线数仓 - 会员指标验证、DataX 导出与广告业务 ODS/DWD/ADS 全流程
大数据·后端·apache hive
肌肉娃子3 天前
20260227.spark.Spark 性能刺客:千万别在 for 循环里写 withColumn
spark
初次攀爬者3 天前
ZooKeeper 实现分布式锁的两种方式
分布式·后端·zookeeper
武子康3 天前
大数据-235 离线数仓 - 实战:Flume+HDFS+Hive 搭建 ODS/DWD/DWS/ADS 会员分析链路
大数据·后端·apache hive
DianSan_ERP4 天前
电商API接口全链路监控:构建坚不可摧的线上运维防线
大数据·运维·网络·人工智能·git·servlet
够快云库4 天前
能源行业非结构化数据治理实战:从数据沼泽到智能资产
大数据·人工智能·机器学习·企业文件安全
AI周红伟4 天前
周红伟:智能体全栈构建实操:OpenClaw部署+Agent Skills+Seedance+RAG从入门到实战
大数据·人工智能·大模型·智能体
B站计算机毕业设计超人4 天前
计算机毕业设计Django+Vue.js高考推荐系统 高考可视化 大数据毕业设计(源码+LW文档+PPT+详细讲解)
大数据·vue.js·hadoop·django·毕业设计·课程设计·推荐算法