基于Spark配置+缓存策略+Junpyter Notebook 实现Spark数据加速调试

一、Spark配置加载优化

  1. 减少shuffle分区
  2. 减少并行度
  3. 关闭自适应优化(小数据更快)
  4. 足够Driver内存
  5. 启用Arrow加速
  6. 关闭UI减少开销
  7. 本地模式,避免网络开销
python 复制代码
%%time
# 初始化计时
import time
import pandas as pd
from pyspark.sql import SparkSession
from pyspark.storagelevel import StorageLevel

# 创建优化的SparkSession(针对小数据调试)
spark = SparkSession.builder \
    .appName("JupyterDebug") \
    .config("spark.sql.shuffle.partitions", "1") \          # 减少shuffle分区
    .config("spark.default.parallelism", "1") \            # 减少并行度
    .config("spark.sql.adaptive.enabled", "false") \       # 关闭自适应优化(小数据更快)
    .config("spark.driver.memory", "2g") \                 # 足够Driver内存
    .config("spark.sql.execution.arrow.pyspark.enabled", "true") \  # 启用Arrow加速
    .config("spark.ui.enabled", "false") \                 # 关闭UI减少开销
    .master("local[*]") \                                  # 本地模式,避免网络开销
    .getOrCreate()

二、缓存策略

python 复制代码
%%time
# 数据加载代码
# df1 = get_df1(spark)

df1 = df1.persist(StorageLevel.MEMORY_AND_DISK)  # 缓存加速。生产场景应根据数据量或通过配置项决定是否缓存
df1.cache()
df1.show(20)
df1.printSchema()
print(f"columns count: {len(df1.columns)}")
print(f"columns: {df1.olumns}")

三、 建议

  1. 优化分区、网络配置加速运行 :避免网络开销,使用master("local[*]")
  2. 预先缓存策略 :在show()之前先persist()cache()并触发缓存,注意生产应通过配置或数据量合理控制使用缓存,避免内存问题。
  3. 利用Jupyter特性 :使用display()、交互式变量查看
相关推荐
深蓝电商API8 小时前
分布式事务在跨境交易中的解决方案
分布式·跨境电商·代购系统·反向海淘·代购平台·跨境代购
藦卡机器人8 小时前
中国工业机器人发展现状
大数据·人工智能·机器人
Simon_lca9 小时前
突破合规瓶颈:ZDHC Supplier to Zero(工厂零排放 - 进阶型)体系全攻略
大数据·网络·人工智能·分类·数据挖掘·数据分析·零售
黄焖鸡能干四碗11 小时前
网络安全建设实施方案(Word文件参考下载)
大数据·网络·人工智能·安全·web安全·制造
云境筑桃源哇12 小时前
马踏春风 为爱启航 | 瑞派宠物医院(南部新城旗舰店)盛大开业!打造宠物医疗新标杆!
大数据·宠物
我真会写代码12 小时前
从入门到精通:Kafka核心原理与实战避坑指南
分布式·缓存·kafka
xixixi7777713 小时前
2026 年 03 月 20 日 AI+通信+安全行业日报(来更新啦)
大数据·人工智能·安全·ai·大模型·通信
F36_9_13 小时前
大数据治理平台选型避坑:2026 年 8 大主流系统实测
大数据·数据治理
成长之路51413 小时前
【实证分析】A股上市公司企业劳动力需求数据集(2000-2023年)
大数据
奔跑的呱呱牛13 小时前
GeoJSON 在大数据场景下为什么不够用?替代方案分析
java·大数据·servlet·gis·geojson