Spark streaming写入delta数据湖问题

问题1 一个batch运行时间过长

检查发现问题出现在merge写文件时间过长,一个batch本来应该是控制在1min。但项目上线到生产环境,检查spark streaming的job,发现数据在merge写入到数据湖时,往往超过1小时。继续排查,发现是一张表往往出现几百个小文件,影响数据写性能,故每天进行小文件合并操作。

  • . 优化小文件问题:

    sql 复制代码
    optimize delta.`dbfs:/your_mount_path/` 
  • 增加分区:

    python 复制代码
    df = spark.read.format('delta').load("abfs:/your_history_path")
    df = df.withColumn('CDC_DATE', df['cdc_timestamp'].cast('date'))
    df.write.partitionBy('CDC_DATE').mode('overwrite').option('overwriteSchema', 'true').format('delta').save("abfs:/your_partitioin_path")
相关推荐
DeepVis Research1 小时前
【AGI/Simulation】2026年度通用人工智能图灵测试与高频博弈仿真基准索引 (Benchmark Index)
大数据·人工智能·算法·数据集·量化交易
Nemo_ZR2 小时前
Doris源码编译与开发环境搭建
大数据
阿里云大数据AI技术6 小时前
一站式构建 AI 数据处理 Pipeline:DataWorks Notebook + MaxCompute MaxFrame 快速入门指南
大数据·人工智能
阿里云大数据AI技术7 小时前
StarRocks + Paimon: 构建 Lakehouse Native 数据引擎
大数据·人工智能
下海fallsea7 小时前
韩国零食正在占领俄罗斯
大数据·人工智能
武汉唯众智创9 小时前
全国职业院校技能大赛大数据应用开发实训室建设方案
大数据·国赛·大数据应用开发·大数据实训室·全国职业院校技能大赛·大数据应用开发实训室·大数据应用开发实验室
媒体人8889 小时前
E-E-A-T²增强框架:AI时代GEO生成式引擎优化的信任破局之道
大数据·人工智能·搜索引擎·生成式引擎优化·geo优化
回家路上绕了弯11 小时前
熔断限流实战指南:分布式系统的稳定性守卫
分布式·后端
Albert Edison11 小时前
【Git】分支管理
大数据·git·elasticsearch
山峰哥11 小时前
SQL优化中的索引策略与Explain分析实战
大数据·汇编·数据库·sql·编辑器