kafka producer metrics

背景

做online Service埋点设计,塞了很多节点,采用了base64压缩,希望能监控当前消息的大小,防止超过threshold后无法正常发送。

kafka基本架构

producer metrics

官方文档

其中有两个参数用来表征在kafka的producer的client里,发送的record的size。这些metrics可以通过JMX的MBeans里的configurable properties获得。需要主动导入Prometheus才可以进行深入分析。

复制代码
record-size-avg	The average record size
record-size-max	The maximum record size

那么如何将JMX的一些metrics导入Prometheus呢?

这里有一篇文章讲述如何导出的例子,改文章里的例子单独摘在下方:

附上JMX导入Prometheus的示例:
java agent

producer configs

配置参数文档

可以看到默认的时间窗口是30ms,但是metrics的计算至少需要两个samples。所以窗口可以理解为60s。

相关推荐
q***213844 分钟前
分布式多卡训练(DDP)踩坑
分布式
槁***耿7 小时前
后端分布式事务解决方案,Seata与Hmily对比
分布式
1***y1787 小时前
PySpark RDD编程实战,分布式数据处理
分布式
冰芒芒9 小时前
Kafka - 4 Kafka的副本同步机制
分布式·kafka
ZVAyIVqt0UFji10 小时前
Kafka 消费积压影响写入?试试 Pulsar
分布式·kafka
百***988110 小时前
RabbitMQ 的介绍与使用
分布式·rabbitmq·ruby
跟着珅聪学java11 小时前
Kafka 报错 No readable meta.properties files found解决方案
分布式·kafka
q***845711 小时前
Spring Boot集成Kafka:最佳实践与详细指南
spring boot·kafka·linq
U***498311 小时前
SpringBoot集成Kafka,高吞吐消息处理
spring boot·后端·kafka