kafka producer metrics

背景

做online Service埋点设计,塞了很多节点,采用了base64压缩,希望能监控当前消息的大小,防止超过threshold后无法正常发送。

kafka基本架构

producer metrics

官方文档

其中有两个参数用来表征在kafka的producer的client里,发送的record的size。这些metrics可以通过JMX的MBeans里的configurable properties获得。需要主动导入Prometheus才可以进行深入分析。

复制代码
record-size-avg	The average record size
record-size-max	The maximum record size

那么如何将JMX的一些metrics导入Prometheus呢?

这里有一篇文章讲述如何导出的例子,改文章里的例子单独摘在下方:

附上JMX导入Prometheus的示例:
java agent

producer configs

配置参数文档

可以看到默认的时间窗口是30ms,但是metrics的计算至少需要两个samples。所以窗口可以理解为60s。

相关推荐
你我约定有三41 分钟前
软件启动时加配置文件 vs 不加配置文件
java·分布式·zookeeper
励志成为糕手3 小时前
ZooKeeper架构深度解析:分布式协调服务的核心设计与实现
大数据·分布式·zookeeper·架构·一致性
瑞瑞绮绮5 小时前
分布式事务的Java实践
java·分布式·springcloud
孤独的复仇者5 小时前
RabbitMQ高级:延迟消息
分布式·rabbitmq
AMiner:AI科研助手8 小时前
警惕!你和ChatGPT的对话,可能正在制造分布式妄想
人工智能·分布式·算法·chatgpt·deepseek
码luffyliu10 小时前
消息队列 :Kafka 核心要点总结
分布式·kafka·消息队列·mq
运维老司机16 小时前
Kafka 开启 SASL_PLAINTEXT 双监听器认证(内网/外网)
分布式·kafka·linq
冰芒芒17 小时前
Kafka如何保证高可用
kafka
fengfuyao98517 小时前
分布式电源接入电网进行潮流计算
分布式
项目題供诗19 小时前
Hadoop(七)
大数据·hadoop·分布式