flink 自定义kudu connector中使用Metrics计数平均吞吐量,并推送到自定义kafkaReporter

文章目录

    • 前言
    • [1. Registering metrics](#1. Registering metrics)
    • [2. Metrics 的类型](#2. Metrics 的类型)
      • [2.1 counter](#2.1 counter)
      • [2.2 Gauge](#2.2 Gauge)
      • [2.3 Histogram](#2.3 Histogram)
      • [2.4 meter](#2.4 meter)
    • [3. 指标划分](#3. 指标划分)
      • [3.1 指标所属的范围](#3.1 指标所属的范围)
      • [3.2 默认所属](#3.2 默认所属)
    • [4. 自定义kudu connector中使用Metrics](#4. 自定义kudu connector中使用Metrics)
      • [4.1 sink算子继承RichFunction](#4.1 sink算子继承RichFunction)
      • [4.2 注册指标](#4.2 注册指标)
      • [4.3 计数逻辑](#4.3 计数逻辑)
      • [4.4 自定义Reporter,推送metric到kafka](#4.4 自定义Reporter,推送metric到kafka)
      • [4.5 结果展示](#4.5 结果展示)

前言

Flink exposes a metric system that allows gathering and exposing metrics to external systems

1. Registering metrics

继承RichFunction,调用getRuntimeContext().getMetricGroup()


2. Metrics 的类型

2.1 counter

计数器,累加或者累减

2.2 Gauge

提供各种类型的值

2.3 Histogram

表示度量值的统计结果,如平均值、最大值

2.4 meter

表示平均吞吐量,单位时间内事件次数


3. 指标划分

3.1 指标所属的范围

3.2 默认所属


4. 自定义kudu connector中使用Metrics

4.1 sink算子继承RichFunction

4.2 注册指标

4.3 计数逻辑

ps:kudu写入实际指标包含2个,一个是每分钟流量,在try代码块中,一个是每分钟错误数量,在catch代码块中


4.4 自定义Reporter,推送metric到kafka



flink-conf.yaml配置注册的类和参数

4.5 结果展示

相关推荐
weixin_307779133 分钟前
PySpark实现MERGE INTO的数据合并功能
大数据·python·spark
vx153027823624 小时前
CDGA|企业数据治理实战:从疏通“信息河”到打造优质“数据湖”
java·大数据·人工智能·cdga·数据治理
AIRIOT6 小时前
AIRIOT智慧消防管理解决方案
大数据
哔哩哔哩技术7 小时前
ClickHouse BSI与字典服务在B站商业化DMP中的应用实践
大数据
想做富婆7 小时前
数仓搭建(hive):DM搭建(数据集市层)
大数据·数仓搭建
python资深爱好者8 小时前
使用机器学习算法进行大数据预测或分类的案例
大数据·算法·机器学习
B站计算机毕业设计超人8 小时前
计算机毕业设计Python农产品推荐系统 农产品爬虫 农产品可视化 农产品大数据(源码+LW文档+PPT+讲解)
大数据·python·机器学习·网络爬虫·课程设计·数据可视化·推荐算法
{⌐■_■}9 小时前
【git】提交修改、回撤、回滚、Tag 操作讲解,与reset (--soft、--mixed、--hard) 的区别
大数据·git·elasticsearch
Aloudata10 小时前
如何通过指标平台,最大化地提升数据分析的效率和质量?
大数据·数据分析·指标平台·指标体系·noetl