Flink性能指标详解MetricsAnalysis

文章目录

1.JobManager

管理任务

  • 作业调度:负责接收和调度作业,分配任务到 TaskManager。
  • 资源管理:管理集群资源,协调 TaskManager 的启动和停止。
  • 故障恢复:负责作业的故障恢复,重新调度失败的任务。

JobManager 相关参数:

  • jobmanager.memory.process.size:JobManager 进程的总内存大小。
  • jobmanager.rpc.address:JobManager 的 RPC 通信地址。
  • jobmanager.rpc.port:JobManager 的 RPC 通信端口。

2.TaskManager

执行任务

  • 任务执行:负责执行分配给它的任务(如数据处理、计算等)。
  • 资源管理:管理分配给它的资源(如 CPU、内存等)。
  • 心跳机制:定期向 JobManager 发送心跳,报告自身状态。

TaskManager 相关参数:

  • taskmanager.numberOfTaskSlots:每个 TaskManager 提供的任务槽数量。
  • taskmanager.memory.process.size:TaskManager 进程的总内存大小。
  • taskmanager.network.memory.fraction:TaskManager 分配给网络缓冲区的内存比例。

3.ResourceManager

资源管理

  • 资源分配:管理集群资源,分配资源给 TaskManager。
  • 资源回收:回收不再使用的资源,优化资源利用。
  • 资源监控:监控集群资源的使用情况,确保资源的合理分配。

4.Dispatcher

分发器

  • 作业分发:接收客户端提交的作业,分发给 JobManager。
  • 作业管理:管理作业的生命周期,包括提交、调度和完成。
  • 作业监控:提供作业的监控信息,如进度、日志等。

Dispatcher 相关参数:

  • dispatcher.address:Dispatcher 的地址。
  • dispatcher.port:Dispatcher 的端口。

5.Client

提交任务

  • 作业提交:负责将作业提交到 Flink 集群。
  • 作业配置:配置作业的参数和资源需求。
  • 作业监控:监控作业的执行状态,提供日志和性能指标。

6. Env

环境

  • 执行环境配置:配置作业的执行环境,包括并行度、资源需求等。
  • 作业执行:执行作业的逻辑,包括数据源、转换和数据汇出。

环境参数

  • parallelism.default:默认的并行度。
  • execution.batch.speculative.enabled:是否启用推测执行。

JobManager Metrics

TaskManager Metrics

堆内存计算:

相关推荐
武子康15 小时前
大数据-243 离线数仓 - 实战电商核心交易增量导入(DataX - HDFS - Hive 分区
大数据·后端·apache hive
代码匠心2 天前
从零开始学Flink:Flink SQL四大Join解析
大数据·flink·flink sql·大数据处理
武子康3 天前
大数据-242 离线数仓 - DataX 实战:MySQL 全量/增量导入 HDFS + Hive 分区(离线数仓 ODS
大数据·后端·apache hive
SelectDB4 天前
易车 × Apache Doris:构建湖仓一体新架构,加速 AI 业务融合实践
大数据·agent·mcp
武子康5 天前
大数据-241 离线数仓 - 实战:电商核心交易数据模型与 MySQL 源表设计(订单/商品/品类/店铺/支付)
大数据·后端·mysql
IvanCodes5 天前
一、消息队列理论基础与Kafka架构价值解析
大数据·后端·kafka
武子康6 天前
大数据-240 离线数仓 - 广告业务 Hive ADS 实战:DataX 将 HDFS 分区表导出到 MySQL
大数据·后端·apache hive
字节跳动数据平台6 天前
5000 字技术向拆解 | 火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
武子康7 天前
大数据-239 离线数仓 - 广告业务实战:Flume 导入日志到 HDFS,并完成 Hive ODS/DWD 分层加载
大数据·后端·apache hive
字节跳动数据平台8 天前
代码量减少 70%、GPU 利用率达 95%:火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据