kafka producer metrics

背景

做online Service埋点设计,塞了很多节点,采用了base64压缩,希望能监控当前消息的大小,防止超过threshold后无法正常发送。

kafka基本架构

producer metrics

官方文档

其中有两个参数用来表征在kafka的producer的client里,发送的record的size。这些metrics可以通过JMX的MBeans里的configurable properties获得。需要主动导入Prometheus才可以进行深入分析。

复制代码
record-size-avg	The average record size
record-size-max	The maximum record size

那么如何将JMX的一些metrics导入Prometheus呢?

这里有一篇文章讲述如何导出的例子,改文章里的例子单独摘在下方:

附上JMX导入Prometheus的示例:
java agent

producer configs

配置参数文档

可以看到默认的时间窗口是30ms,但是metrics的计算至少需要两个samples。所以窗口可以理解为60s。

相关推荐
仗剑_走天涯2 小时前
Hadoop 安装
大数据·hadoop·分布式
czlczl200209252 小时前
Zookeeper原理
分布式·zookeeper·云原生
weixin199701080164 小时前
《深入浅出:图解淘宝分布式数据库TDDL(及开源替代方案)》
数据库·分布式·开源
bukeyiwanshui4 小时前
Hadoop环境搭建
大数据·hadoop·分布式
大大大大晴天️5 小时前
Flink技术实践-超时异常踩坑与优化
大数据·flink·kafka
大大大大晴天6 小时前
Flink技术实践-超时异常踩坑与优化
大数据·flink·kafka
白驹过隙不负青春6 小时前
Zookeeper版本升级
分布式·zookeeper·云原生
半桶水专家7 小时前
Kafka 支持的认证方式详解
kafka
真上帝的左手7 小时前
12. 消息队列-RabbitMQ-高可用队列详解
分布式·rabbitmq·mq
江畔独步8 小时前
kafka消费特定topic shell脚本
kafka