kafka操作的一些坑

1.如果Offset Explorer能够检测到kafka中的数据,但是自己的kafka无法读取到

这个问题主要是由于kafka中的信息已经被消费掉了造成的

java 复制代码
consumer.commitAsync();

这里如果已经消费掉了kafka的信息,那么已经被消费掉的kafka数据就不会被再读取掉,除非修改offset偏移量

2.如果一直报错Attempt to heart beat failed since the group is rebalancing,此时需要修改心跳时间,一般改为200的时候就可以解决问题

java 复制代码
props.put(ConsumerConfig.HEARTBEAT_INTERVAL_MS_CONFIG,200);

成功解决此问题

相关推荐
山上春2 小时前
Odoo 分布式单体与微服务模式深度对比研究报告
分布式·微服务·架构
左灯右行的爱情2 小时前
Kafka专辑 : 生产者写入路径
分布式·kafka·linq
java1234_小锋3 小时前
Zookeeper集群数据是如何同步的?
分布式·zookeeper·云原生
左灯右行的爱情4 小时前
Kafka专辑: 日志存储模型
分布式·kafka·linq
LB21124 小时前
Kafka笔记
分布式·kafka·linq
想你依然心痛5 小时前
Spark大数据分析与实战笔记(第六章 Kafka分布式发布订阅消息系统-02)
笔记·分布式·spark
胡萝卜的兔6 小时前
go-zero rpc 分布式 微服务
分布式·rpc·golang
小股虫1 天前
分布式事务:在增长中台,我们如何做到“发出去的内容”和“记录的数据”不打架?
分布式·微服务·云原生·架构·团队建设·方法论
是三好1 天前
分布式事务seata
java·分布式·seata
optimistic_chen1 天前
【Redis 系列】常用数据结构---Hash类型
linux·数据结构·redis·分布式·哈希算法