Spark streaming写入delta数据湖问题

问题1 一个batch运行时间过长

检查发现问题出现在merge写文件时间过长,一个batch本来应该是控制在1min。但项目上线到生产环境,检查spark streaming的job,发现数据在merge写入到数据湖时,往往超过1小时。继续排查,发现是一张表往往出现几百个小文件,影响数据写性能,故每天进行小文件合并操作。

  • . 优化小文件问题:

    sql 复制代码
    optimize delta.`dbfs:/your_mount_path/` 
  • 增加分区:

    python 复制代码
    df = spark.read.format('delta').load("abfs:/your_history_path")
    df = df.withColumn('CDC_DATE', df['cdc_timestamp'].cast('date'))
    df.write.partitionBy('CDC_DATE').mode('overwrite').option('overwriteSchema', 'true').format('delta').save("abfs:/your_partitioin_path")
相关推荐
快乐非自愿16 小时前
SpringAI入门指南
大数据·人工智能·spring
choke23316 小时前
深度分析系统建模:从UML基础到类图和对象图的实际应用
大数据·软件工程·uml
IT观测16 小时前
打通施工现场与办公室:工程项目管理软件如何实现真正的远程协同?
大数据
独隅16 小时前
ZooKeeper 基础原理深度解析
分布式·zookeeper·云原生
武子康16 小时前
大数据-277 Spark MLib-梯度提升树(GBDT)算法原理与工程实现指南
大数据·后端·spark
DeepSCRM17 小时前
跨境SOP:从环境隔离到实时翻译,打造巴西市场24/7自动转化漏斗
大数据·人工智能
zs宝来了17 小时前
Apache Spark 内存计算:DAG 调度与执行计划
大数据·数据工程
AI-小柒17 小时前
磅上线!DataEyes 聚合平台正式接入 GPT-Image-2,开启多模态 AI 生成全新纪元
大数据·开发语言·数据库·人工智能·gpt·php
山海鲸可视化17 小时前
数字孪生项目案例 | 冷链物流可视化-园区篇
大数据·数据分析·数据可视化·数据看板·可视化大屏
电商API_1800790524717 小时前
如何实现批量化自动化获取淘宝商品详情数据?爬虫orAPI?
大数据·c++·爬虫·自动化