Spark 集群配置、启动与监控指南

Spark 集群的配置和启动需要几个关键步骤。以下是完整的操作流程,包含配置修改、集群启动、任务提交和常见错误排查方法。

1. 修改 Spark 配置文件

首先需要编辑 Spark 配置文件,设置集群参数:

bash

复制代码
# 进入 Spark 配置目录
cd $SPARK_HOME/conf

# 创建配置文件副本(如果不存在)
cp spark-env.sh.template spark-env.sh
cp slaves.template slaves

# 编辑 spark-env.sh 添加以下配置
vi spark-env.sh

# 添加以下内容(根据实际情况修改)
export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64  # Java 安装路径
export SPARK_MASTER_HOST=master-node  # 主节点主机名
export SPARK_MASTER_PORT=7077  # 主节点端口
export SPARK_WORKER_MEMORY=8g  # 每个工作节点可用内存
export SPARK_WORKER_CORES=4  # 每个工作节点可用 CPU 核心数

# 编辑 slaves 文件指定工作节点
vi slaves

# 添加工作节点主机名(每行一个)
worker-node1
worker-node2
worker-node3
2. 启动 Spark 集群

配置完成后,使用以下命令启动集群:

bash

复制代码
# 在主节点上启动 Master 服务
$SPARK_HOME/sbin/start-master.sh

# 在主节点上启动所有 Worker 服务
$SPARK_HOME/sbin/start-slaves.sh

# 或者在每个工作节点单独启动 Worker
$SPARK_HOME/sbin/start-worker.sh spark://master-node:7077
3. 验证集群运行状态

启动后,可以通过以下方式检查集群状态:

bash

复制代码
# 查看 Master 服务日志
cat $SPARK_HOME/logs/spark--org.apache.spark.deploy.master.Master-1-master-node.out

# 查看 Worker 服务日志
cat $SPARK_HOME/logs/spark--org.apache.spark.deploy.worker.Worker-1-worker-node1.out

# 通过 Web UI 查看集群状态(浏览器访问)
http://master-node:8080
4. 提交 Spark 应用程序

使用以下命令提交示例应用程序测试集群:

bash

复制代码
# 运行 Spark 示例 Pi 计算
$SPARK_HOME/bin/spark-submit \
  --class org.apache.spark.examples.SparkPi \
  --master spark://master-node:7077 \
  --executor-memory 2g \
  --total-executor-cores 4 \
  $SPARK_HOME/examples/jars/spark-examples_2.12-3.3.2.jar \
  100
5. 查看应用程序运行结果

应用程序提交后,可以通过以下方式监控和查看结果:

bash

复制代码
# 查看应用程序控制台输出
# 应用程序完成后,结果会显示在终端上

# 通过 Spark History Server 查看历史作业
# 首先启动 History Server
$SPARK_HOME/sbin/start-history-server.sh

# 然后在浏览器访问
http://master-node:18080
6. 常见错误及解决方法

以下是一些常见问题及解决方法:

plaintext

复制代码
错误1: 无法连接到 Master
原因: Master 服务未启动或配置错误
解决: 检查 master 节点主机名和端口配置,查看 Master 日志

错误2: Worker 无法注册到 Master
原因: 网络不通或防火墙阻止
解决: 确保各节点间网络连通,开放 7077 和 8080 端口

错误3: 应用程序运行缓慢
原因: 资源分配不足或数据倾斜
解决: 增加 executor-memory 和 executor-cores 参数

错误4: 内存溢出错误 (OOM)
原因: 数据处理量过大或内存分配不合理
解决: 增加 spark.executor.memory 或调整 RDD 分区数
相关推荐
Derek_Smart7 小时前
从一次 OOM 事故说起:打造生产级的 JVM 健康检查组件
java·jvm·spring boot
武子康12 小时前
大数据-237 离线数仓 - Hive 广告业务实战:ODS→DWD 事件解析、广告明细与转化分析落地
大数据·后端·apache hive
大大大大晴天13 小时前
Flink生产问题排障-Kryo serializer scala extensions are not available
大数据·flink
大道至简Edward14 小时前
深入 JVM 核心:一文读懂 Class 文件结构(附 Hex 实战解析)
jvm
武子康3 天前
大数据-236 离线数仓 - 会员指标验证、DataX 导出与广告业务 ODS/DWD/ADS 全流程
大数据·后端·apache hive
肌肉娃子3 天前
20260227.spark.Spark 性能刺客:千万别在 for 循环里写 withColumn
spark
武子康4 天前
大数据-235 离线数仓 - 实战:Flume+HDFS+Hive 搭建 ODS/DWD/DWS/ADS 会员分析链路
大数据·后端·apache hive
郑州光合科技余经理4 天前
代码展示:PHP搭建海外版外卖系统源码解析
java·开发语言·前端·后端·系统架构·uni-app·php
DianSan_ERP4 天前
电商API接口全链路监控:构建坚不可摧的线上运维防线
大数据·运维·网络·人工智能·git·servlet
weisian1514 天前
JVM--20-面试题6:如何判断对象可以被垃圾回收?
jvm·可达性算法