kafka producer metrics

背景

做online Service埋点设计,塞了很多节点,采用了base64压缩,希望能监控当前消息的大小,防止超过threshold后无法正常发送。

kafka基本架构

producer metrics

官方文档

其中有两个参数用来表征在kafka的producer的client里,发送的record的size。这些metrics可以通过JMX的MBeans里的configurable properties获得。需要主动导入Prometheus才可以进行深入分析。

复制代码
record-size-avg	The average record size
record-size-max	The maximum record size

那么如何将JMX的一些metrics导入Prometheus呢?

这里有一篇文章讲述如何导出的例子,改文章里的例子单独摘在下方:

附上JMX导入Prometheus的示例:
java agent

producer configs

配置参数文档

可以看到默认的时间窗口是30ms,但是metrics的计算至少需要两个samples。所以窗口可以理解为60s。

相关推荐
Bug退退退12313 分钟前
RabbitMQ 之消息积压
分布式·rabbitmq
熊猫钓鱼>_>14 分钟前
Hadoop 用户入门指南:驾驭大数据的力量
大数据·hadoop·分布式
文艺倾年2 小时前
【八股消消乐】浅尝Kafka性能优化
分布式·性能优化·kafka
钟琛......3 小时前
Redisson 的分布式锁
分布式
CodeWithMe6 小时前
【Note】《Kafka: The Definitive Guide》第11章:Stream Processing
分布式·kafka
落霞的思绪10 小时前
使用云虚拟机搭建hadoop集群环境
大数据·hadoop·分布式
dessler10 小时前
Kafka-日常运维命令
linux·运维·kafka
csdn_aspnet12 小时前
在 Docker 上安装和配置 Kafka、选择用于部署 Kafka 的操作系统
docker·kafka
Bug退退退12320 小时前
RabbitMQ 高级特性之事务
java·分布式·spring·rabbitmq
CodeWithMe21 小时前
【Note】《Kafka: The Definitive Guide》第四章:Kafka 消费者全面解析:如何从 Kafka 高效读取消息
分布式·kafka