消费数据积压

生产者生产数据的速度超过消费者处理数据的速度,会造成kafka中积压大量未处理的数据

2-1 使用Kafka Eagle查看消费积压

Kafka Eagle是一个用于监控和管理kafka的开源组件,可以同时监控多个kafka集群,

通过Kafka Eagle可以看到当前的消费者组,对于每个组,他们正在使用的主题以及该组在每个主题中的偏移量,消费积压等等
JMX(Java Management Extensions,即 Java 管理扩展)是一个为应用程序、设备、系统等植入管理功能的框架。

它提供了对Java应用程序和JVM的监控和管理功能。通过JMX,我们可以监控服务器中的各种资源的使用情况,CPU、内存,JVM内存的使用情况.

安装kafka-eagle 参考安装文件,只需要在一台服务器上安装即可,版本是1.4.6

  • 启动服务
sh 复制代码
ke.sh start
  • 测试数据写入
python 复制代码
kafka-producer-perf-test.sh --topic user --num-records 1000000 --throughput -1 --record-size 1024 --producer-props bootstrap.servers=node1.itcast.cn:9092,node2.itcast.cn:9092,node3.itcast.cn:9092
  • 限流
    • 限制数据的写入速度
    • 写入速度的限制要根据实际情况调整
sh 复制代码
kafka-configs.sh --zookeeper node1.itcast.cn:2181 --alter --add-config 'producer_byte_rate=1048576' --entity-type clients --entity-default
相关推荐
Lansonli2 天前
大数据Spark(七十三):Transformation转换算子glom和foldByKey使用案例
大数据·分布式·spark
keep__go2 天前
spark 单机安装
大数据·运维·分布式·spark
蒙特卡洛的随机游走3 天前
Spark的persist和cache
大数据·分布式·spark
蒙特卡洛的随机游走3 天前
Spark 中 distribute by、sort by、cluster by 深度解析
大数据·分布式·spark
梦里不知身是客113 天前
Spark中的宽窄依赖-宽窄巷子
大数据·分布式·spark
闲人编程3 天前
Python与大数据:使用PySpark处理海量数据
大数据·开发语言·分布式·python·spark·codecapsule·大规模
青云交4 天前
Java 大视界 -- 基于 Java 的大数据实时数据处理在工业互联网设备协同制造中的应用与挑战
flink·spark·工业互联网·预测性维护·实时数据处理·java 大数据·设备协同制造
周杰伦_Jay4 天前
【日志处理方案大比拼】 Filebeat+Kafka+Flink+Spark+ES+HDFS VS ELK/AOP/RocketMQ/大厂方案
flink·spark·kafka
小泊客5 天前
使用讯飞星火 Spark X1-32K 打造本地知识助手
大数据·分布式·spark·大模型应用·本地知识助手
筑梦之人6 天前
Spark-3.5.7文档1 - 快速开始
spark