在Azure Databricks中实现缓慢变化维度(SCD)的三种类型

在Azure Databricks中使用PySpark实现缓慢变化维度(SCD)的三种核心类型,需结合Spark SQL和DataFrame API的特性,并利用Delta Lake的事务支持。以下是具体设计与实现步骤,以及测试用例:

通过以下步骤,可在Azure Databricks中高效实现SCD逻辑,确保数据历史可追溯且符合业务需求。


类型1:覆盖旧值(Overwrite Old Value)

设计要点
  • 直接更新目标表中变化的字段,不保留历史记录。
  • 使用MERGE INTO操作(Delta Lake特性)实现高效更新。
实现步骤
  1. 读取数据:加载源数据(增量数据)和维度表(目标表)。
  2. 匹配键 :根据业务键(如customer_id)匹配源数据和目标表。
  3. 更新记录:若匹配成功且属性变化,更新目标表字段。
  4. 写入结果 :使用MERGE操作完成更新。
代码示例
python 复制代码
from pyspark.sql import SparkSession
spark = SparkSession.builder.getOrCreate()

# 加载源数据和目标表
source_df = spark.read.format("delta").load("source_path")
target_df = spark.read.format("delta").load("target_path")

# 创建临时视图
source_df.createOrReplaceTempView("source")
target_df.createOrReplaceTempView("target")

# 执行MERGE操作
merge_sql = """
MERGE INTO target AS t
USING source AS s
ON t.customer_id = s.customer_id
WHEN MATCHED AND t.address <> s.address THEN
  UPDATE SET t.address = s.address
WHEN NOT MATCHED THEN
  INSERT (customer_id, name, address) 
  VALUES (s.customer_id, s.name, s.address)
"""

spark.sql(merge_sql)
测试用例
  • 场景1:客户地址变更,验证目标表中旧地址被覆盖。
  • 场景2:新增客户插入,验证记录正确添加。
  • 场景3:无变化数据,确认无操作执行。

类型2:创建新记录(SCD Type 2)

设计要点
  • 为每个变化生成新记录,维护start_dateend_dateis_current标志。
  • 使用窗口函数检测变化,MERGE操作插入新记录并更新旧记录状态。
实现步骤
  1. 添加版本标识 :在目标表中增加start_dateend_dateis_current字段。
  2. 检测变化:对比源数据与目标表,标记变化的记录。
  3. 关闭旧记录 :将变化记录的end_date设为当前日期,is_current设为False
  4. 插入新记录 :为新记录设置start_date为当前时间,end_dateNULLis_currentTrue
代码示例
python 复制代码
from pyspark.sql import functions as F
from pyspark.sql.window import Window

# 加载数据
source = spark.read.format("delta").load("source_path")
target = spark.read.format("delta").load("target_path")

# 检测变化:假设通过last_updated_time判断
changes = source.join(target, "product_id", "left_outer") \
    .filter(
        (source.price != target.price) | 
        target.product_id.isNull()
    )

# 关闭旧记录
closed_records = target.join(changes, "product_id", "inner") \
    .withColumn("end_date", F.current_date()) \
    .withColumn("is_current", F.lit(False)) \
    .select(target["*"], "end_date", "is_current")

# 生成新记录(新增或变化)
new_records = changes.withColumn("start_date", F.current_date()) \
    .withColumn("end_date", F.lit(None).cast("date")) \
    .withColumn("is_current", F.lit(True)) \
    .select("product_id", "price", "start_date", "end_date", "is_current")

# 合并并写入Delta表
final_df = closed_records.unionByName(new_records)
final_df.write.format("delta") \
    .mode("overwrite") \
    .saveAsTable("product_dimension")
测试用例
  • 场景1 :产品价格首次插入,验证is_current=Trueend_date=NULL
  • 场景2 :价格变更后,旧记录is_current=False,新记录时间连续。
  • 场景3:多次变更,检查历史版本数量及时间连续性。

类型3:添加有效日期(SCD Type 3)

设计要点
  • 为每个记录维护valid_fromvalid_to日期,仅保留有限历史(如最新一次变更)。
  • 更新时修改旧记录的valid_to,插入新记录。
实现步骤
  1. 初始化字段 :在目标表中添加valid_fromvalid_to
  2. 检测变化:对比新旧数据,找出属性变化的记录。
  3. 关闭旧记录 :将旧记录valid_to设为当前日期。
  4. 插入新记录 :设置新记录的valid_from为当前日期,valid_toNULL
代码示例
python 复制代码
# 加载数据
employee_source = spark.read.format("delta").load("source_path")
employee_target = spark.read.format("delta").load("target_path")

# 检测职位变化
changes = employee_source.join(employee_target, "employee_id", "left") \
    .filter(employee_source.position != employee_target.position)

# 关闭旧记录(设置valid_to)
closed = changes.select(employee_target["*"]) \
    .withColumn("valid_to", F.current_date())

# 插入新记录
new_records = changes.select(employee_source["*"]) \
    .withColumn("valid_from", F.current_date()) \
    .withColumn("valid_to", F.lit(None).cast("date"))

# 合并数据并写入
closed.unionByName(new_records) \
    .write.format("delta") \
    .mode("overwrite") \
    .saveAsTable("employee_dimension")
测试用例
  • 场景1 :员工职位首次记录,valid_to为空。
  • 场景2 :职位变更后,旧记录valid_to更新,新记录valid_from正确。
  • 场景3:查询特定时间点的职位状态,验证时间段准确性。

混合方法实现示例

结合类型1和类型2,对关键属性使用类型2,非关键属性使用类型1:

python 复制代码
# 关键属性(如地址)使用类型2
address_changes = detect_address_changes(source, target)
close_old_address_records(address_changes)
insert_new_address_records(address_changes)

# 非关键属性(如电话)使用类型1
phone_updates = detect_phone_changes(source, target)
update_phone_records(phone_updates)

关键优化点

  1. Delta Lake特性 :利用MERGE INTO、ACID事务、Z-Order优化查询性能。
  2. 数据版本管理 :使用DESCRIBE HISTORY查看SCD操作历史。
  3. 增量处理:仅处理变化的数据分区,减少计算量。
相关推荐
BXCQ_xuan37 分钟前
使用阿里云 CDN 保护网站真实 IP:完整配置指南
tcp/ip·阿里云·云计算
小羊Linux客栈41 分钟前
Python小程序:上班该做点摸鱼的事情
开发语言·python·小程序·游戏程序
小黄人20251 小时前
【KWDB 创作者计划】一款面向 AIoT 的多模数据库实战体验
数据库·云计算·kwdb
老胖闲聊2 小时前
Python PyTorch库【机器学习框架】全面深入讲解与实践
pytorch·python·机器学习
凉白开3382 小时前
Spark-streaming
大数据·分布式·spark
aiweker2 小时前
python数据分析(六):Pandas 多数据操作全面指南
python·数据分析·pandas
27669582922 小时前
得物 小程序 6宫格 分析
java·python·小程序·得物·得物小程序·得物六宫格·六宫格验证码
哈哈~1563 小时前
Spark Streaming实时数据处理实战:从DStream基础到自定义数据源集成
spark
天才测试猿3 小时前
基于Pytest接口自动化的requests模块项目实战以及接口关联方法详解
自动化测试·软件测试·python·测试工具·单元测试·测试用例·pytest
啊阿狸不会拉杆3 小时前
人工智能数学基础(三):微积分初步
人工智能·python·算法·数学建模