kafka producer metrics

背景

做online Service埋点设计,塞了很多节点,采用了base64压缩,希望能监控当前消息的大小,防止超过threshold后无法正常发送。

kafka基本架构

producer metrics

官方文档

其中有两个参数用来表征在kafka的producer的client里,发送的record的size。这些metrics可以通过JMX的MBeans里的configurable properties获得。需要主动导入Prometheus才可以进行深入分析。

复制代码
record-size-avg	The average record size
record-size-max	The maximum record size

那么如何将JMX的一些metrics导入Prometheus呢?

这里有一篇文章讲述如何导出的例子,改文章里的例子单独摘在下方:

附上JMX导入Prometheus的示例:
java agent

producer configs

配置参数文档

可以看到默认的时间窗口是30ms,但是metrics的计算至少需要两个samples。所以窗口可以理解为60s。

相关推荐
2501_941624335 小时前
云计算与边缘计算:未来数字化转型的双引擎
kafka
while(努力):进步5 小时前
人工智能的未来:如何改变我们的工作与生活
kafka
zl9798998 小时前
RabbitMQ-Work Queues
分布式·rabbitmq
2501_941403769 小时前
人工智能与机器学习:未来科技的核心驱动力
kafka
回家路上绕了弯10 小时前
日增千万数据:数据库表设计与高效插入存储方案
分布式·后端
Code_Artist10 小时前
robfig/cron定时任务库快速入门
分布式·后端·go
稚辉君.MCA_P8_Java10 小时前
通义千问 SpringBoot 性能优化全景设计(面向 Java 开发者)
大数据·hadoop·spring boot·分布式·架构
一只会写代码的猫13 小时前
云原生与编程语言:如何应对现代应用的复杂性挑战
kafka
2501_9411433215 小时前
如何运用云计算提升企业的IT基础设施灵活性和成本效益
kafka
q***46416 小时前
RabbitMQ高级特性----生产者确认机制
分布式·rabbitmq