任务运维、循环任务死锁.....DolphinScheduler任务配置经验分享

在调研了 DolphinScheduler 之后,在项目上实际使用了一段时间,有了一些任务配置实际经验,分享如下。

一、资源中心任务组上限问题

【资源容量】: 允许任务实例并发的最大数量。

1.1、 现象

当我们部署方式是standalone时,资源容量默认值是 10,如下截图:

如果我们调整这个上限,很容易就出现Task和scheduler failed,这就表示同时运行的任务超过上限了。

1.2、解决方案

所以,如果不改变部署方式,我们尽量去拆分任务运行的时间,不要让同一时间点运行任务过多。

二、任务运维问题

2.1、现象

从如下截图可以看出,每个任务组的资源容量是10。

如果我们把所有的任务都放到几个任务组,那么当任务数量上来之后,比如到达如下图现在800+个,当任务堵塞的时候,以下几百个任务需要停止或者运维,这将是灾难。

2.1、解决方案

所幸各个任务组的容量是分开的,各个任务组之间的互补干扰。 所以,尽量去多拆分任务组,这样就会减少因为任务组上限的问题,造成的性能问题和死锁,以及减少后面运维的工作量。

三、循环任务死锁

3.1、现象

任务组容量默认值是10,且使用了功能 逻辑节点-DYNAMIC。

特点: 这个节点可以循环生成子任务,比如设置了20个循环参数,就会循环生成20个子任务,在子任务没有完全生成运行完成之前,这个循环任务会一直保持"运行中"状态,并占用任务组容量。

这就会导致超过10个循环任务同时执行时,循环任务因为任务组容量的问题,无法生成子任务,然后循环任务无法生成子任务,循环任务本身又不会结束,死锁了。

3.2、解决办法

前置条件: 循环任务虽然配置同时运行,但是循环任务还有前置任务,不会完全同时。

提升子任务的任务组内优先级。

  • 循环任务组内优先级设置为一个较小的数字如 2。

  • 子任务组内有限设置为一个较大的数字如 7。

这样,只要生成子任务就会比循环任务优先级高,这样子任务就会一直生成,并执行完成,循环任务也就完成了。不会死锁。

四、依赖任务死锁

4.1、现象

任务组容量默认值是10,且使用了功能 逻辑节点-DEPENDENT。

特点: 这个节点可以设置前置依赖任务,比如下面这个任务设置了前置依赖任务,在前置依赖任务未完成的情况下,这个任务会一直占用1个容量。

如果任务和前置任务的定时时间,设置反了,后置任务比前置任务先运行,那么当任务数量超过任务组容量时,就会导致依赖任务,一直等待前置任务,但是前置任务无法运行,死锁。

4.2、解决办法

避免配置后置任务的定时器比前置任务时间早。

转载自鹏说大数据

原文链接:blog.csdn.net/pengpenhhh/...

本文由 白鲸开源科技 提供发布支持!

相关推荐
源码技术栈1 小时前
SaaS基于云计算、大数据的Java云HIS平台信息化系统源码
java·大数据·云计算·云his·his系统·云医院·区域his
Elastic 中国社区官方博客1 小时前
Elasticsearch 索引副本数
大数据·数据库·elasticsearch·搜索引擎·全文检索
Eternity......2 小时前
SparkSQL基本操作
大数据·spark
268572592 小时前
Elasticsearch 初步认识
大数据·elasticsearch·搜索引擎·全文检索·es
python算法(魔法师版)2 小时前
网络编程入门(一)
大数据·网络·网络协议·计算机网络
caihuayuan54 小时前
生产模式下react项目报错minified react error #130的问题
java·大数据·spring boot·后端·课程设计
兔子坨坨4 小时前
详细了解HDFS
大数据·hadoop·hdfs·big data
夏旭泽5 小时前
系统架构-大数据架构设计
大数据·系统架构
Eternity......5 小时前
Spark,连接MySQL数据库,添加数据,读取数据
大数据·spark
智慧化智能化数字化方案6 小时前
报告精读:华为2024年知行合一通信行业数据治理实践指南报告【附全文阅读】
大数据·数据治理实践指南报告·华为2024年知行合一·通信行业数据治理实践指南报告