PySpark广播表连接解决数据倾斜的完整案例

使用PySpark解决数据倾斜问题的完整案例,通过广播表连接的方式来优化性能。

  1. 准备数据

假设我们有两张表,一张大表 big_table 和一张小表 small_table ,小表将作为广播表。

python 复制代码
from pyspark.sql import SparkSession

# 初始化SparkSession
spark = SparkSession.builder.appName("Data Skew Example").getOrCreate()

# 模拟大表数据
big_table = spark.createDataFrame([(i, f"value_{i}") for i in range(1000000)], ["id", "data"])

# 模拟小表数据
small_table = spark.createDataFrame([(i, f"category_{i%10}") for i in range(100)], ["id", "category"])
  1. 查看广播表大小
python 复制代码
import sys
from pyspark.sql.functions import col

# 查看小表的大小,单位字节
small_table_size = small_table.select(col("*")).count() * sys.getsizeof(tuple(small_table.first()))
print(f"Size of small_table: {small_table_size} bytes")
  1. 初始连接(产生数据倾斜)
python 复制代码
# 不使用广播进行连接,会产生数据倾斜

joined_without_broadcast = big_table.join(small_table, "id")
  1. 使用广播表连接
python 复制代码
from pyspark.sql.functions import broadcast

# 使用广播表连接
joined_with_broadcast = big_table.join(broadcast(small_table), "id")
  1. 查看Spark WebUI分析数据倾斜

运行作业:在执行上述代码时,Spark会启动作业,可以通过Spark WebUI查看作业执行情况。在浏览器中访问 http://:4040 (这是Spark默认的WebUI端口,实际可能不同)。

查看阶段详情:进入"Jobs"页面,找到对应的作业,点击进入查看各阶段(Stage)详情。在阶段详情里,可以看到任务(Task)的执行时间分布。没有广播时,数据倾斜表现为部分任务执行时间远长于其他任务;使用广播后,任务执行时间应更均匀。

查看执行计划:也可以通过调用 joined_with_broadcast.explain() 查看执行计划,确认广播表是否正确应用。

python 复制代码
# 查看执行计划
joined_with_broadcast.explain()
  1. 完整代码示例
python 复制代码
from pyspark.sql import SparkSession
import sys
from pyspark.sql.functions import col, broadcast

# 初始化SparkSession
spark = SparkSession.builder.appName("Data Skew Example").getOrCreate()

# 模拟大表数据
big_table = spark.createDataFrame([(i, f"value_{i}") for i in range(1000000)], ["id", "data"])

# 模拟小表数据
small_table = spark.createDataFrame([(i, f"category_{i%10}") for i in range(100)], ["id", "category"])

# 查看小表的大小,单位字节
small_table_size = small_table.select(col("*")).count() * sys.getsizeof(tuple(small_table.first()))
print(f"Size of small_table: {small_table_size} bytes")

# 不使用广播进行连接,会产生数据倾斜
joined_without_broadcast = big_table.join(small_table, "id")

# 使用广播表连接
joined_with_broadcast = big_table.join(broadcast(small_table), "id")

# 查看执行计划
joined_with_broadcast.explain()

这个案例先创建了大小两张表,查看小表大小以确认适合广播,演示了普通连接产生数据倾斜的情况,接着使用广播表连接解决该问题,并说明了如何从Spark WebUI查看数据倾斜的发生与解决效果。

相关推荐
兔子宇航员03013 分钟前
数据开发八股文整理- Hadoop
大数据·hadoop·分布式
gzroy6 分钟前
Streamlit+Selenium快速构建一个网络爬虫应用
爬虫·python·selenium
百年੭ ᐕ)੭*⁾⁾10 分钟前
scrapy爬取图片
爬虫·python·scrapy
weixin_3077791311 分钟前
Azure Synapse Analytics和Azure Databricks的共同点和区别
数据仓库·spark·云计算·azure
玉成22627 分钟前
Elasticsearch:搜索相关性
大数据·elasticsearch·搜索引擎
15年网络推广青哥32 分钟前
抖音TikTok代运营中的数据分析与优化策略是怎样的?
大数据·人工智能·数据分析
传说故事34 分钟前
CLIP代码相关问题
人工智能·python·ai·clip
B站计算机毕业设计超人37 分钟前
计算机毕业设计Python机器学习农作物健康识别系统 人工智能 图像识别 机器学习 大数据毕业设计 算法
大数据·人工智能·python·深度学习·机器学习·课程设计·数据可视化
程序猿~厾罗41 分钟前
HTML实战课堂之启动动画弹窗
python
itbysj1 小时前
Python Matplotlib 教程-Matplotlib 如何绘制常见图表
开发语言·python·matplotlib