Spark streaming写入delta数据湖问题

问题1 一个batch运行时间过长

检查发现问题出现在merge写文件时间过长,一个batch本来应该是控制在1min。但项目上线到生产环境,检查spark streaming的job,发现数据在merge写入到数据湖时,往往超过1小时。继续排查,发现是一张表往往出现几百个小文件,影响数据写性能,故每天进行小文件合并操作。

  • . 优化小文件问题:

    sql 复制代码
    optimize delta.`dbfs:/your_mount_path/` 
  • 增加分区:

    python 复制代码
    df = spark.read.format('delta').load("abfs:/your_history_path")
    df = df.withColumn('CDC_DATE', df['cdc_timestamp'].cast('date'))
    df.write.partitionBy('CDC_DATE').mode('overwrite').option('overwriteSchema', 'true').format('delta').save("abfs:/your_partitioin_path")
相关推荐
li_wen015 小时前
文件系统(八):Linux JFFS2文件系统工作原理、优势与局限
大数据·linux·数据库·文件系统·jffs2
昨夜见军贴06167 小时前
IACheck AI审核在生产型企业质量控制记录中的实践探索——全面赋能有关物质研究合规升级
大数据·人工智能
盖雅工场7 小时前
驱动千店销售转化提升10%:3C零售门店的人效优化实战方案
大数据·人工智能·零售·数字化管理·智能排班·零售排班
发哥来了7 小时前
【AI视频创作】【评测】【核心能力与成本效益】
大数据·人工智能
你才是臭弟弟8 小时前
什么是真正的“数据湖”(核心)
大数据
街灯L9 小时前
【kylin-Linux】Flash兼容插件包安装
大数据·linux·运维·kylin
min1811234569 小时前
AI金融风控:智能反欺诈与个性化理财
大数据·人工智能
渣渣盟11 小时前
大数据技术 Flink 优化之数据倾斜
大数据·flink
2501_9336707911 小时前
高职/大专学计算机的突围路径
大数据
xinyuan_12345611 小时前
不止于提速:德州数智招标采购交易平台,重塑采购生态新效率
大数据·人工智能