Spark streaming写入delta数据湖问题

问题1 一个batch运行时间过长

检查发现问题出现在merge写文件时间过长,一个batch本来应该是控制在1min。但项目上线到生产环境,检查spark streaming的job,发现数据在merge写入到数据湖时,往往超过1小时。继续排查,发现是一张表往往出现几百个小文件,影响数据写性能,故每天进行小文件合并操作。

  • . 优化小文件问题:

    sql 复制代码
    optimize delta.`dbfs:/your_mount_path/` 
  • 增加分区:

    python 复制代码
    df = spark.read.format('delta').load("abfs:/your_history_path")
    df = df.withColumn('CDC_DATE', df['cdc_timestamp'].cast('date'))
    df.write.partitionBy('CDC_DATE').mode('overwrite').option('overwriteSchema', 'true').format('delta').save("abfs:/your_partitioin_path")
相关推荐
PNP Robotics31 分钟前
PNP机器人受邀参加英业达具身智能活动
大数据·人工智能·python·学习·机器人
Kiyra1 小时前
WebSocket vs HTTP:为什么 IM 系统选择长连接?
分布式·websocket·网络协议·http·设计模式·系统架构·wpf
360智汇云1 小时前
存储压缩:不是“挤水分”,而是让数据“轻装上阵
大数据·人工智能
码农小白猿3 小时前
IACheck优化电梯定期检验报告:自动化术语审核提升合规性与效率
大数据·运维·人工智能·ai·自动化·iacheck
URBBRGROUN4673 小时前
Spring AI @ToolParam 扩展注解改造实践
大数据·人工智能·spring
WZTTMoon3 小时前
Spring Boot OAuth2 授权码模式开发实战
大数据·数据库·spring boot
中科天工4 小时前
智能仓储解决方案到底是什么?
大数据·人工智能·智能
xl-xueling4 小时前
从快手直播故障,看全景式业务监控势在必行!
大数据·后端·网络安全·流式计算
云老大TG:@yunlaoda3604 小时前
华为云国际站代理商运维保障的具体要求有哪些?
大数据·运维·华为云
Nautiluss4 小时前
一起调试XVF3800麦克风阵列(二)
大数据·人工智能·嵌入式硬件·音频·语音识别·dsp开发