基于Spark配置+缓存策略+Junpyter Notebook 实现Spark数据加速调试

一、Spark配置加载优化

  1. 减少shuffle分区
  2. 减少并行度
  3. 关闭自适应优化(小数据更快)
  4. 足够Driver内存
  5. 启用Arrow加速
  6. 关闭UI减少开销
  7. 本地模式,避免网络开销
python 复制代码
%%time
# 初始化计时
import time
import pandas as pd
from pyspark.sql import SparkSession
from pyspark.storagelevel import StorageLevel

# 创建优化的SparkSession(针对小数据调试)
spark = SparkSession.builder \
    .appName("JupyterDebug") \
    .config("spark.sql.shuffle.partitions", "1") \          # 减少shuffle分区
    .config("spark.default.parallelism", "1") \            # 减少并行度
    .config("spark.sql.adaptive.enabled", "false") \       # 关闭自适应优化(小数据更快)
    .config("spark.driver.memory", "2g") \                 # 足够Driver内存
    .config("spark.sql.execution.arrow.pyspark.enabled", "true") \  # 启用Arrow加速
    .config("spark.ui.enabled", "false") \                 # 关闭UI减少开销
    .master("local[*]") \                                  # 本地模式,避免网络开销
    .getOrCreate()

二、缓存策略

python 复制代码
%%time
# 数据加载代码
# df1 = get_df1(spark)

df1 = df1.persist(StorageLevel.MEMORY_AND_DISK)  # 缓存加速。生产场景应根据数据量或通过配置项决定是否缓存
df1.cache()
df1.show(20)
df1.printSchema()
print(f"columns count: {len(df1.columns)}")
print(f"columns: {df1.olumns}")

三、 建议

  1. 优化分区、网络配置加速运行 :避免网络开销,使用master("local[*]")
  2. 预先缓存策略 :在show()之前先persist()cache()并触发缓存,注意生产应通过配置或数据量合理控制使用缓存,避免内存问题。
  3. 利用Jupyter特性 :使用display()、交互式变量查看
相关推荐
Coder个人博客4 小时前
Linux6.19-ARM64 mm mmu子模块深入分析
大数据·linux·车载系统·系统架构·系统安全·鸿蒙系统
心态还需努力呀7 小时前
CANN仓库通信库:分布式训练的梯度压缩技术
分布式·cann
财经三剑客9 小时前
AI元年,春节出行安全有了更好的答案
大数据·人工智能·安全
岁岁种桃花儿9 小时前
Flink CDC从入门到上天系列第一篇:Flink CDC简易应用
大数据·架构·flink
TOPGUS9 小时前
谷歌SEO第三季度点击率趋势:榜首统治力的衰退与流量的去中心化趋势
大数据·人工智能·搜索引擎·去中心化·区块链·seo·数字营销
2501_9336707910 小时前
2026 高职大数据与会计专业零基础能考的证书有哪些?
大数据
ClouderaHadoop11 小时前
CDH集群机房搬迁方案
大数据·hadoop·cloudera·cdh
TTBIGDATA11 小时前
【Atlas】Ambari 中 开启 Kerberos + Ranger 后 Atlas Hook 无权限访问 Kafka Topic:ATLAS_HOOK
大数据·kafka·ambari·linq·ranger·knox·bigtop
程序员清洒11 小时前
CANN模型部署:从云端到端侧的全场景推理优化实战
大数据·人工智能
Coder_Boy_11 小时前
基于SpringAI的在线考试系统-相关技术栈(分布式场景下事件机制)
java·spring boot·分布式·ddd