【运维监控】Prometheus+grafana监控flink运行情况


文章目录


  • 本示例通过flink自带的监控信息暴露出来,然后将数据收集到prometheus中,最后通过grafana的dashboard导入模板进行可视化。
  • 本示例分为四个部分,即prometheus、grafana部署、flink配置修改和最后的集成。
  • 说明:本示例中的部署环境没有要求,即应用部署的机器根据实际情况而定,只要网络连通即可。

一、prometheus

参考:【运维监控】prometheus+node exporter+grafana 监控linux机器运行情况关于prometheus的部署。

二、grafana

参考:【运维监控】prometheus+node exporter+grafana 监控linux机器运行情况 关于grafana的部署。

三、flink配置修改

flink的部署请参考文章:1、Flink1.12.7或1.13.5详细介绍及本地安装部署、验证

在该文章的基础上,增加如下配置,修改的是flink-conf.yaml配置文件。

yml 复制代码
metrics.reporter.prom.factory.class: org.apache.flink.metrics.prometheus.PrometheusReporterFactory

配置文件保存后,重启flink集群。由于是集群环境,所以需要将整个集群的配置文件都需要修改,端口可以设置,也可以不设置,不设置端口,默认的是9249。

flink集群启动后,集群的任意服务器都可以按照如下方式访问暴露的指标数据,形如http://server4:9249/,图示如下。

1、修改prometheus配置文件

在prometheus的配置文件(prometheus.yml)中添加如下配置部分。作者的flink是集群高可用环境,即jobmanager部署在server1、server2上,taskmanager部署在server1、server2和server3服务器上。

bash 复制代码
  - job_name: "flink-job-manger"
    static_configs:
      - targets: [ "server1:9249","server2:9249" ]
    metrics_path: /
  - job_name: "flink-task-manger"
    static_configs:
      - targets: [ "server2:9249","server3:9249","server4:9249" ]
    metrics_path: /

重启prometheus后,并验证是否收集到监控信息。

查看Prometheus是否监控到运行的flink应用如下图。

查看prometheus是否收集到监控信息如下图(查询flink_taskmanager_Status_Shuffle_Netty_UsedMemory)

2、导入grafana模板

导入过程不再赘述,参考文章:【运维监控】Prometheus+grafana监控tomcat8.5 运行情况

本示例导入的模板ID是14911(Apache Flink (2021) Dashboard for Job / Task Manager)。

3、验证

以上所涉及的服务均能正常的运行,以及验证都通过。

点击添加的flink模板,则显示如下图所示。(如果想显示的数据比较多,则需要使用flink做一些复杂的任务,否则有些数据可能没有。)

  • Job Manager (JVM - CPU)
  • Job Manager (JVM - Memory Usage)
  • Job Manager (JVM - Garbage Collector)
  • Job Manager (Slots & Jobs)
  • Job Manager (Checkpoints)
  • Task Manager (JVM - CPU)
  • Task Manager (JVM - Memory Usage)
  • Task Manager (JVM - Garbage Collector) 和Task Manager (Memory - Flink)
  • Task Manager (Memory - Shuffle Netty)
  • Task Manager (Job Task - Diag)
  • Task Manager (Job Task - General)



    以上,完成了Prometheus+grafana监控flink运行情况示例。
相关推荐
长风清留扬6 分钟前
一篇文章了解何为 “大数据治理“ 理论与实践
大数据·数据库·面试·数据治理
Mephisto.java7 分钟前
【大数据学习 | Spark】Spark的改变分区的算子
大数据·elasticsearch·oracle·spark·kafka·memcache
明明跟你说过19 分钟前
Linux中的【tcpdump】:深入介绍与实战使用
linux·运维·测试工具·tcpdump
小马爱打代码20 分钟前
Elasticsearch简介与实操
大数据·elasticsearch·搜索引擎
Mr_Xuhhh1 小时前
重生之我在学环境变量
linux·运维·服务器·前端·chrome·算法
zhixingheyi_tian6 小时前
Spark 之 Aggregate
大数据·分布式·spark
PersistJiao6 小时前
Spark 分布式计算中网络传输和序列化的关系(一)
大数据·网络·spark
宅小海9 小时前
scala String
大数据·开发语言·scala
朝九晚五ฺ9 小时前
【Linux探索学习】第十四弹——进程优先级:深入理解操作系统中的进程优先级
linux·运维·学习
小白的白是白痴的白9 小时前
11.17 Scala练习:梦想清单管理
大数据