PySpark广播表连接解决数据倾斜的完整案例

使用PySpark解决数据倾斜问题的完整案例,通过广播表连接的方式来优化性能。

  1. 准备数据

假设我们有两张表,一张大表 big_table 和一张小表 small_table ,小表将作为广播表。

python 复制代码
from pyspark.sql import SparkSession

# 初始化SparkSession
spark = SparkSession.builder.appName("Data Skew Example").getOrCreate()

# 模拟大表数据
big_table = spark.createDataFrame([(i, f"value_{i}") for i in range(1000000)], ["id", "data"])

# 模拟小表数据
small_table = spark.createDataFrame([(i, f"category_{i%10}") for i in range(100)], ["id", "category"])
  1. 查看广播表大小
python 复制代码
import sys
from pyspark.sql.functions import col

# 查看小表的大小,单位字节
small_table_size = small_table.select(col("*")).count() * sys.getsizeof(tuple(small_table.first()))
print(f"Size of small_table: {small_table_size} bytes")
  1. 初始连接(产生数据倾斜)
python 复制代码
# 不使用广播进行连接,会产生数据倾斜

joined_without_broadcast = big_table.join(small_table, "id")
  1. 使用广播表连接
python 复制代码
from pyspark.sql.functions import broadcast

# 使用广播表连接
joined_with_broadcast = big_table.join(broadcast(small_table), "id")
  1. 查看Spark WebUI分析数据倾斜

运行作业:在执行上述代码时,Spark会启动作业,可以通过Spark WebUI查看作业执行情况。在浏览器中访问 http://:4040 (这是Spark默认的WebUI端口,实际可能不同)。

查看阶段详情:进入"Jobs"页面,找到对应的作业,点击进入查看各阶段(Stage)详情。在阶段详情里,可以看到任务(Task)的执行时间分布。没有广播时,数据倾斜表现为部分任务执行时间远长于其他任务;使用广播后,任务执行时间应更均匀。

查看执行计划:也可以通过调用 joined_with_broadcast.explain() 查看执行计划,确认广播表是否正确应用。

python 复制代码
# 查看执行计划
joined_with_broadcast.explain()
  1. 完整代码示例
python 复制代码
from pyspark.sql import SparkSession
import sys
from pyspark.sql.functions import col, broadcast

# 初始化SparkSession
spark = SparkSession.builder.appName("Data Skew Example").getOrCreate()

# 模拟大表数据
big_table = spark.createDataFrame([(i, f"value_{i}") for i in range(1000000)], ["id", "data"])

# 模拟小表数据
small_table = spark.createDataFrame([(i, f"category_{i%10}") for i in range(100)], ["id", "category"])

# 查看小表的大小,单位字节
small_table_size = small_table.select(col("*")).count() * sys.getsizeof(tuple(small_table.first()))
print(f"Size of small_table: {small_table_size} bytes")

# 不使用广播进行连接,会产生数据倾斜
joined_without_broadcast = big_table.join(small_table, "id")

# 使用广播表连接
joined_with_broadcast = big_table.join(broadcast(small_table), "id")

# 查看执行计划
joined_with_broadcast.explain()

这个案例先创建了大小两张表,查看小表大小以确认适合广播,演示了普通连接产生数据倾斜的情况,接着使用广播表连接解决该问题,并说明了如何从Spark WebUI查看数据倾斜的发生与解决效果。

相关推荐
CONTONUE21 分钟前
运行Spark程序-在Idea中(二)
大数据·spark·intellij-idea
计算机人哪有不疯的25 分钟前
图文展示HDFS、YARN、MapReduce三者关系
大数据·spark
祈53328 分钟前
MapReduce 的工作原理
大数据·mapreduce
Agatha方艺璇29 分钟前
MapReduce报错 HADOOP_HOME and hadoop.home.dir are unset.
大数据·hadoop·mapreduce
(・Д・)ノ39 分钟前
python打卡day22
python
achene_ql1 小时前
深入探索 RKNN 模型转换之旅
python·目标检测·rk3588·模型部署·rk3566
@十八子德月生2 小时前
8天Python从入门到精通【itheima】-1~5
大数据·开发语言·python·学习
元6332 小时前
Hadoop集群的常用命令
大数据·hadoop
每天一个秃顶小技巧3 小时前
02.Golang 切片(slice)源码分析(一、定义与基础操作实现)
开发语言·后端·python·golang
武汉格发Gofartlic4 小时前
FEKO许可证的安全与合规性
大数据·运维·安全