kafka producer metrics

背景

做online Service埋点设计,塞了很多节点,采用了base64压缩,希望能监控当前消息的大小,防止超过threshold后无法正常发送。

kafka基本架构

producer metrics

官方文档

其中有两个参数用来表征在kafka的producer的client里,发送的record的size。这些metrics可以通过JMX的MBeans里的configurable properties获得。需要主动导入Prometheus才可以进行深入分析。

复制代码
record-size-avg	The average record size
record-size-max	The maximum record size

那么如何将JMX的一些metrics导入Prometheus呢?

这里有一篇文章讲述如何导出的例子,改文章里的例子单独摘在下方:

附上JMX导入Prometheus的示例:
java agent

producer configs

配置参数文档

可以看到默认的时间窗口是30ms,但是metrics的计算至少需要两个samples。所以窗口可以理解为60s。

相关推荐
Macbethad36 分钟前
WPF工业设备诊断管理程序技术方案
大数据·hadoop·分布式
Thomas21431 小时前
pyspark3.5给paimon1.2的表打tag报错 spark_catalog is not a ProcedureCatalog
大数据·分布式·spark
稚辉君.MCA_P8_Java2 小时前
Gemini永久会员 Hadoop分布式计算框架MapReduce
大数据·hadoop·分布式·架构·mapreduce
CrazyClaz2 小时前
分布式事务专题4
分布式·分布式事务
程序员小胖3 小时前
每天一道面试题之架构篇|异步确保型事务——消息队列驱动的分布式事务解决方案
分布式·面试
CrazyClaz3 小时前
分布式事务专题2
分布式·分布式事务
鹿衔`4 小时前
CDH 6.3.2 集群外挂 Spark 3.5.7 (Paimon) 集成 Hue 实战指南
大数据·分布式·spark
路边草随风4 小时前
go实现接口接收数据写入kafka
golang·kafka·gin
士心凡4 小时前
hadoop
大数据·hadoop·分布式
IIIIIILLLLLLLLLLLLL4 小时前
Hadoop完全分布式安装
大数据·hadoop·分布式