kafka操作的一些坑

1.如果Offset Explorer能够检测到kafka中的数据,但是自己的kafka无法读取到

这个问题主要是由于kafka中的信息已经被消费掉了造成的

java 复制代码
consumer.commitAsync();

这里如果已经消费掉了kafka的信息,那么已经被消费掉的kafka数据就不会被再读取掉,除非修改offset偏移量

2.如果一直报错Attempt to heart beat failed since the group is rebalancing,此时需要修改心跳时间,一般改为200的时候就可以解决问题

java 复制代码
props.put(ConsumerConfig.HEARTBEAT_INTERVAL_MS_CONFIG,200);

成功解决此问题

相关推荐
是Judy咋!2 小时前
RabbitMQ---搭建(自定义数据以及日志目录)
分布式·centos·rabbitmq
keep__go3 小时前
spark 单机安装
大数据·运维·分布式·spark
蒙特卡洛的随机游走10 小时前
Spark的persist和cache
大数据·分布式·spark
蒙特卡洛的随机游走10 小时前
Spark 中 distribute by、sort by、cluster by 深度解析
大数据·分布式·spark
梦里不知身是客1110 小时前
Spark中的宽窄依赖-宽窄巷子
大数据·分布式·spark
化作星辰11 小时前
java 给鉴权kafka2.7(sasl)发送消息权限异常处理
java·大数据·开发语言·kafka
过往记忆11 小时前
Kafka 作为事件流的商业模式正在消亡
分布式·kafka
KYumii11 小时前
智慧判官-分布式编程评测平台
vue.js·spring boot·分布式·spring cloud·java-rabbitmq
百***992411 小时前
RabbitMQ高级特性----生产者确认机制
分布式·rabbitmq
小坏讲微服务15 小时前
Spring Cloud Alibaba Gateway 集成 Redis 限流的完整配置
数据库·redis·分布式·后端·spring cloud·架构·gateway