flink 自定义kudu connector中使用Metrics计数平均吞吐量,并推送到自定义kafkaReporter

文章目录

    • 前言
    • [1. Registering metrics](#1. Registering metrics)
    • [2. Metrics 的类型](#2. Metrics 的类型)
      • [2.1 counter](#2.1 counter)
      • [2.2 Gauge](#2.2 Gauge)
      • [2.3 Histogram](#2.3 Histogram)
      • [2.4 meter](#2.4 meter)
    • [3. 指标划分](#3. 指标划分)
      • [3.1 指标所属的范围](#3.1 指标所属的范围)
      • [3.2 默认所属](#3.2 默认所属)
    • [4. 自定义kudu connector中使用Metrics](#4. 自定义kudu connector中使用Metrics)
      • [4.1 sink算子继承RichFunction](#4.1 sink算子继承RichFunction)
      • [4.2 注册指标](#4.2 注册指标)
      • [4.3 计数逻辑](#4.3 计数逻辑)
      • [4.4 自定义Reporter,推送metric到kafka](#4.4 自定义Reporter,推送metric到kafka)
      • [4.5 结果展示](#4.5 结果展示)

前言

Flink exposes a metric system that allows gathering and exposing metrics to external systems

1. Registering metrics

继承RichFunction,调用getRuntimeContext().getMetricGroup()


2. Metrics 的类型

2.1 counter

计数器,累加或者累减

2.2 Gauge

提供各种类型的值

2.3 Histogram

表示度量值的统计结果,如平均值、最大值

2.4 meter

表示平均吞吐量,单位时间内事件次数


3. 指标划分

3.1 指标所属的范围

3.2 默认所属


4. 自定义kudu connector中使用Metrics

4.1 sink算子继承RichFunction

4.2 注册指标

4.3 计数逻辑

ps:kudu写入实际指标包含2个,一个是每分钟流量,在try代码块中,一个是每分钟错误数量,在catch代码块中


4.4 自定义Reporter,推送metric到kafka



flink-conf.yaml配置注册的类和参数

4.5 结果展示

相关推荐
最初的↘那颗心7 分钟前
Flink Stream API 源码走读 - print()
java·大数据·hadoop·flink·实时计算
君不见,青丝成雪1 小时前
hadoop技术栈(九)Hbase替代方案
大数据·hadoop·hbase
晴天彩虹雨1 小时前
存算分离与云原生:数据平台的新基石
大数据·hadoop·云原生·spark
朗迪锋1 小时前
数字孪生 :提高制造生产力的智能方法
大数据·人工智能·制造
杨荧2 小时前
基于Python的宠物服务管理系统 Python+Django+Vue.js
大数据·前端·vue.js·爬虫·python·信息可视化
健康平安的活着3 小时前
es7.x es的高亮与solr高亮查询的对比&对比说明
大数据·elasticsearch·solr
缘华工业智维3 小时前
CNN 在故障诊断中的应用:原理、案例与优势
大数据·运维·cnn
更深兼春远3 小时前
spark+scala安装部署
大数据·spark·scala
阿里云大数据AI技术4 小时前
ODPS 十五周年实录 | 为 AI 而生的数据平台
大数据·数据分析·开源
哈哈很哈哈5 小时前
Spark 运行流程核心组件(三)任务执行
大数据·分布式·spark