kafka producer metrics

背景

做online Service埋点设计,塞了很多节点,采用了base64压缩,希望能监控当前消息的大小,防止超过threshold后无法正常发送。

kafka基本架构

producer metrics

官方文档

其中有两个参数用来表征在kafka的producer的client里,发送的record的size。这些metrics可以通过JMX的MBeans里的configurable properties获得。需要主动导入Prometheus才可以进行深入分析。

复制代码
record-size-avg	The average record size
record-size-max	The maximum record size

那么如何将JMX的一些metrics导入Prometheus呢?

这里有一篇文章讲述如何导出的例子,改文章里的例子单独摘在下方:

附上JMX导入Prometheus的示例:
java agent

producer configs

配置参数文档

可以看到默认的时间窗口是30ms,但是metrics的计算至少需要两个samples。所以窗口可以理解为60s。

相关推荐
Jackyzhe11 小时前
从零学习Kafka:生产者压缩
分布式·学习·kafka
一只普通的码农12 小时前
kafka在windows环境部署
分布式·kafka
bqq1986102612 小时前
Kafka高效的原因
缓存·kafka
Kiyra13 小时前
异步任务不用 Kafka 也行:用 Redis Stream 搭一套轻量级 Producer/Consumer 框架
数据库·人工智能·redis·分布式·后端·缓存·kafka
面向Google编程13 小时前
从零学习Kafka:幂等与事务
大数据·kafka
Jackeyzhe13 小时前
从零学习Kafka:幂等与事务
kafka
倒流时光三十年14 小时前
第6篇 Consumer 精讲(上):Offset 提交与幂等消费
spring boot·kafka
老码观察14 小时前
分布式系统核心理论与实践:从CAP到工程落地
分布式
赵渝强老师14 小时前
【赵渝强老师】Hadoop的伪分布部署模式
大数据·hadoop·分布式
Mike117.15 小时前
GBase 8c 序列取值在分布式业务里的几个风险点
分布式