Spark streaming写入delta数据湖问题

问题1 一个batch运行时间过长

检查发现问题出现在merge写文件时间过长,一个batch本来应该是控制在1min。但项目上线到生产环境,检查spark streaming的job,发现数据在merge写入到数据湖时,往往超过1小时。继续排查,发现是一张表往往出现几百个小文件,影响数据写性能,故每天进行小文件合并操作。

  • . 优化小文件问题:

    sql 复制代码
    optimize delta.`dbfs:/your_mount_path/` 
  • 增加分区:

    python 复制代码
    df = spark.read.format('delta').load("abfs:/your_history_path")
    df = df.withColumn('CDC_DATE', df['cdc_timestamp'].cast('date'))
    df.write.partitionBy('CDC_DATE').mode('overwrite').option('overwriteSchema', 'true').format('delta').save("abfs:/your_partitioin_path")
相关推荐
大数据追光猿7 分钟前
【大数据Doris】生产环境,Doris主键模型全表7000万数据更新写入为什么那么慢?
大数据·经验分享·笔记·性能优化·doris
武子康1 小时前
大数据-197 K折交叉验证实战:sklearn 看均值/方差,选更稳的 KNN 超参
大数据·后端·机器学习
数据皮皮侠1 小时前
2m气温数据集(1940-2024)
大数据·数据库·人工智能·制造·微信开放平台
Coder_Boy_2 小时前
基于SpringAI的智能运维平台(AI驱动)
大数据·运维·人工智能
Yuer20253 小时前
用 Rust 做分布式查询引擎之前,我先写了一个最小执行 POC
开发语言·分布式·rust
智能化咨询3 小时前
(99页PPT)智慧校园XXX学院总体解决方案(附下载方式)
大数据
张彦峰ZYF5 小时前
高并发场景下的缓存雪崩探析与应对策略
redis·分布式·缓存
wang_yb5 小时前
数据分析师的“水晶球”:时间序列分析
大数据·databook
ModestCoder_6 小时前
Git 版本管理教程
大数据·git·elasticsearch
hg01186 小时前
湖南工程机械海外火爆,非洲成为出口新增长极
大数据