Spark 性能调优七步法

本文档综合了 Spark 工程中常见的性能瓶颈和优化技巧,分为七大调优方向,适用于 PySpark 和 Scala Spark 场景,包括资源配置、并行度、缓存、垃圾回收、UDF 性能、Shuffle 优化和作业结构管控等。


一、资源配置调优

目标

合理分配 executor 和 JVM 内存,避免 OOM 和 GC 过高导致性能下降或 executor 被 YARN Kill。

优化策略

参数 推荐配置 说明
--executor-memory 8G ~ 20G JVM 堆内存,过大易导致 Full GC
--executor-cores 2 ~ 5 避免超过带条数导致 GC
spark.executor.memoryOverhead 至少 2G(PySpark 推荐为 4G 或更高) off-heap 内存,包括 Python UDF/缓冲区/数据缓存
--num-executors 根据总核数计算 = 总CPU核数 / 每executor核数

示例

复制代码
--executor-memory 16G \
--executor-cores 4 \
--conf spark.executor.memoryOverhead=4G \
--num-executors 50

二、数据分区和并行度

目标

避免 task 单次处理数据过多或过少,导致 GC 或分布失衡,强化应用的并行能力。

优化策略

  • 初始读取后使用 repartition(n) 指定分区

  • 调整 spark.sql.shuffle.partitions(默认 200)

  • 结果写出前使用 coalesce(n) 减少小文件

    df = df.repartition(200)
    spark.conf.set("spark.sql.shuffle.partitions", "400")
    df.coalesce(100).write.parquet("...")


三、缓存优化

目标

提高数据重复读取时性能,避免多次进程计算。

优化策略

  • 使用 persist() 替代 cache()

  • 指定缓存级别:MEMORY_AND_DISK_SER 节省内存

  • 后续不使用时应该 unpersist()

    from pyspark import StorageLevel
    df.persist(StorageLevel.MEMORY_AND_DISK_SER)
    ...
    df.unpersist()


四、垃圾回收 (GC) 优化

目标

降低 GC 时间,避免 JVM 停顿,提高作业稳定性。

优化策略

  • JVM 堆内存 <= 20G

  • 推荐使用 G1GC

  • 启用 GC 日志分析

    --conf spark.executor.extraJavaOptions="-XX:+UseG1GC -verbose:gc -XX:+PrintGCDetails -XX:+PrintGCDateStamps"


五、UDF 代码和逻辑优化

目标

减少 JVM 和 Python 之间的序列化或处理费,提高运行效率。

优化策略

  • 优先考虑 Spark SQL 表达式或 built-in 函数

  • 用 pandas UDF 替换 Python UDF

  • 避免 collect()/groupByKey()

    @pandas_udf(StringType(), functionType="PANDAS_UDF")
    def clean(col: pd.Series) -> pd.Series:
    return col.str.lower().str.strip()

    df = df.withColumn("cleaned", clean("name"))


六、Shuffle 性能优化

目标

降低 shuffle 输入输出 IO 和缓冲压力,避免倦缓/磁盘 spill,提高性能。

优化策略

  • 避免 groupByKey,优先 reduceByKey 或 aggregateByKey

  • 启用 shuffle 压缩、spill 压缩

  • 适应场景使用 Broadcast Join / Sort-Merge Join

  • 解决数据倾斜:Salting 或 AQE

示例配置

复制代码
--conf spark.shuffle.compress=true \
--conf spark.shuffle.spill.compress=true \
--conf spark.shuffle.file.buffer=64k \
--conf spark.sql.autoBroadcastJoinThreshold=10MB \
--conf spark.sql.adaptive.enabled=true

七、作业结构和任务管理

目标

控制 DAG 深度,避免特殊大 task 倾斜,提升较均衡执行效率。

优化策略

  • 较复杂的 DAG 作业分时 checkpoint/cache

  • 推荐使用 AQE 展现时动性分区和 join 选择

  • 避免大幅 broadcast join (大于 10MB)

    spark.conf.set("spark.sql.adaptive.enabled", "true")


总结:Spark 调优七步法(记忆词:资-分-存-收-码-洗-控)

分类 内容
1. 资源配置 内存/核数/超越内存配置
2. 分区并行度 repartition / shuffle 分区
3. 数据缓存 persist 级别 / 释放时机
4. GC 优化 G1GC / JVM 堆 / GC 日志
5. UDF 逻辑 pandas UDF / Spark SQL 替代
6. Shuffle 优化 join 类型 / 倾斜解决方案
7. 作业控制 AQE / checkpoint / 分步执行

相关推荐
Dxy123931021639 分钟前
Elasticsearch 8.13.4 内存占用过大如何处理
大数据·elasticsearch·搜索引擎
qq_12498707533 小时前
基于深度学习的蘑菇种类识别系统的设计与实现(源码+论文+部署+安装)
java·大数据·人工智能·深度学习·cnn·cnn算法
泰迪智能科技3 小时前
新疆高校大数据人工智能实验室建设案例
大数据·人工智能
Light603 小时前
数据战争的星辰大海:从纷争到融合,五大核心架构的终局之战与AI新纪元
大数据·人工智能·数据治理·湖仓一体·数据中台·数据架构·选型策略
qq_348231853 小时前
市场快评 · 今日复盘20251231
大数据
小北方城市网3 小时前
Python + 前后端全栈进阶课程(共 10 节|完整版递进式|从技术深化→项目落地→就业进阶,无缝衔接基础课)
大数据·开发语言·网络·python·数据库架构
喜欢编程的小菜鸡4 小时前
2025:中国大数据行业的“价值觉醒”之年——从规模基建到效能释放的历史性转折
大数据
策知道4 小时前
从“抗旱保苗”到“修渠引水”:读懂五年财政政策的变奏曲
大数据·数据库·人工智能·搜索引擎·政务
XC131489082675 小时前
法律行业获客,如何用科技手段突破案源瓶颈的实操方法
大数据·人工智能·科技
深圳市恒星物联科技有限公司5 小时前
恒星物联亮相湖南城市生命线安全工程培训会展会
大数据·数据库·物联网