基于Spark配置+缓存策略+Junpyter Notebook 实现Spark数据加速调试

一、Spark配置加载优化

  1. 减少shuffle分区
  2. 减少并行度
  3. 关闭自适应优化(小数据更快)
  4. 足够Driver内存
  5. 启用Arrow加速
  6. 关闭UI减少开销
  7. 本地模式,避免网络开销
python 复制代码
%%time
# 初始化计时
import time
import pandas as pd
from pyspark.sql import SparkSession
from pyspark.storagelevel import StorageLevel

# 创建优化的SparkSession(针对小数据调试)
spark = SparkSession.builder \
    .appName("JupyterDebug") \
    .config("spark.sql.shuffle.partitions", "1") \          # 减少shuffle分区
    .config("spark.default.parallelism", "1") \            # 减少并行度
    .config("spark.sql.adaptive.enabled", "false") \       # 关闭自适应优化(小数据更快)
    .config("spark.driver.memory", "2g") \                 # 足够Driver内存
    .config("spark.sql.execution.arrow.pyspark.enabled", "true") \  # 启用Arrow加速
    .config("spark.ui.enabled", "false") \                 # 关闭UI减少开销
    .master("local[*]") \                                  # 本地模式,避免网络开销
    .getOrCreate()

二、缓存策略

python 复制代码
%%time
# 数据加载代码
# df1 = get_df1(spark)

df1 = df1.persist(StorageLevel.MEMORY_AND_DISK)  # 缓存加速。生产场景应根据数据量或通过配置项决定是否缓存
df1.cache()
df1.show(20)
df1.printSchema()
print(f"columns count: {len(df1.columns)}")
print(f"columns: {df1.olumns}")

三、 建议

  1. 优化分区、网络配置加速运行 :避免网络开销,使用master("local[*]")
  2. 预先缓存策略 :在show()之前先persist()cache()并触发缓存,注意生产应通过配置或数据量合理控制使用缓存,避免内存问题。
  3. 利用Jupyter特性 :使用display()、交互式变量查看
相关推荐
Me4神秘5 小时前
国家级互联网骨干直联点及容量、互联网交换中心
大数据·信息与通信
zandy10117 小时前
全链路可控+极致性能,衡石HENGSHI CLI重新定义企业级BI工具的AI协作能力
大数据·人工智能·ai analytics·ai native·agent-first
果粒蹬i9 小时前
Elasticsearch 单机部署实测:安装流程、常见坑点与远程访问配置
大数据·elasticsearch·搜索引擎
AC赳赳老秦9 小时前
OpenClaw数据库高效操作指南:MySQL/PostgreSQL批量处理与数据迁移实战
大数据·数据库·mysql·elasticsearch·postgresql·deepseek·openclaw
小王毕业啦9 小时前
2006-2023年 省级-建成区绿化覆盖率数据(xlsx)
大数据·人工智能·数据挖掘·数据分析·社科数据·实证分析·经管数据
AEIC学术交流中心10 小时前
【快速EI检索 | SPIE出版】第六届中国膜计算论坛暨2026年人工智能、大数据与电气自动化国际学术会议(CWMC&AIBDE 2026)
大数据·人工智能·量子计算
難釋懷10 小时前
缓存同步
spring·缓存·mybatis
历程里程碑11 小时前
二叉树---二叉树的中序遍历
java·大数据·开发语言·elasticsearch·链表·搜索引擎·lua
凌乱的豆包11 小时前
Spring Cloud Alibaba Nacos 服务注册发现和分布式配置中心
分布式
AC赳赳老秦11 小时前
OpenClaw text-translate技能:多语言批量翻译,解决跨境工作沟通难题
大数据·运维·数据库·人工智能·python·deepseek·openclaw