kafka producer metrics

背景

做online Service埋点设计,塞了很多节点,采用了base64压缩,希望能监控当前消息的大小,防止超过threshold后无法正常发送。

kafka基本架构

producer metrics

官方文档

其中有两个参数用来表征在kafka的producer的client里,发送的record的size。这些metrics可以通过JMX的MBeans里的configurable properties获得。需要主动导入Prometheus才可以进行深入分析。

复制代码
record-size-avg	The average record size
record-size-max	The maximum record size

那么如何将JMX的一些metrics导入Prometheus呢?

这里有一篇文章讲述如何导出的例子,改文章里的例子单独摘在下方:

附上JMX导入Prometheus的示例:
java agent

producer configs

配置参数文档

可以看到默认的时间窗口是30ms,但是metrics的计算至少需要两个samples。所以窗口可以理解为60s。

相关推荐
回家路上绕了弯1 天前
熔断限流实战指南:分布式系统的稳定性守卫
分布式·后端
什么都不会的Tristan1 天前
基于Redis的分布式锁
分布式
kong79069281 天前
Hadoop介绍HDFS介绍
大数据·hadoop·分布式
RockHopper20251 天前
AMR “分布式多世界”世界模型的工作原理说明
分布式·世界模型·amr·具身机械主义·具身认知
oMcLin1 天前
如何在CentOS 7.9上部署并优化Kafka 集群,支持大规模实时数据流处理?
linux·kafka·centos
lhyzws1 天前
CENTOS上的网络安全工具(三十五)Portainer Kafka-Clickhouse部署 Flink安装部署与编程
clickhouse·flink·kafka
linweidong1 天前
Spark Shuffle的优化
大数据·分布式·spark
我爱娃哈哈1 天前
SpringBoot + Kafka + Flink:用户行为日志实时采集与实时画像构建实战
spring boot·flink·kafka
AC赳赳老秦1 天前
批量文档处理自动化:DeepSeek + Python 实现多格式文件内容提取与汇总
开发语言·spring boot·elasticsearch·postgresql·kafka·政务·deepseek
宇钶宇夕1 天前
和利时MACS-K分布式控制系统深度解析:全冗余+开放兼容,赋能工业精准控制
运维·分布式·自动化