第三节:kafka sarama 遇到Bug?

文章目录


前言

前面两节,我们已经简单应用了sarama的两个类型Client和ClusterAdmin,其中有一个案例是获取集群的ControllerId,但是在后面的测试过程过程中,发现一个问题,返回的ControllerID是随机的,这个是什么原因呢,我们下面分析下


一、先上结果

下图展示了我用四种方式,获取到的ControllerId的信息,分别是

ClusterAdmin 的 DescribeCluster()

ClusterAdmin 的 Controller()

Client的 Controller()

Clinet的 RefreshController()

可以看到每次返回的四个结果都不一致

开始我也怀疑是不是我的kafka集群本身有问题,但是通过kafka工具查看

复制代码
./bin/kafka-metadata-quorum.sh --bootstrap-server 172.20.37.227:34997  descr
ibe  --status

集群的Controller的LeaderID尽管在更新,但是不会短时间内迅速切换,所以集群没有问题。

二、刨根问底

ControllerID返回结果随机是什么原因呢,一顿查找,终于是找的一个类似的问题。

传送门:
DescribeCluster() returns random broker ID as the controller ID under KRaft mode #2521

这个开发者也是遇到和我一样的困惑,为什么获取到的ControllerID和kafka-metadata-quorum.sh获取的不一致呢。

解答在这里:

kafka 在kraft模式是希望您将请求发送到集群中的任何节点,并且它会相应地进行负载平衡

目前我们用的sarama v1.42.2版本还是有这个问题的,但是作者,提示会在后期更新类似的方法,获得我们需要的结果。

总结

sarama本身也是遵循了kafka kraft版本的代码行为,就使用来说,对客户端是无所谓的,有人相应就好,但是作为运维和排查问题角度,还是需要一个方法,获取到目前集群的Controler的Leader具体是哪个节点。我们可以继续关注这个问题。

相关推荐
赞奇科技Xsuperzone2 小时前
【首发】DGX Spark 三机互连跑 Qwen3-235B-A22B-FP8!
大数据·分布式·spark
poemyang3 小时前
从硬盘I/O到网络传输:Kafka与RocketMQ读写模型及零拷贝技术深度对比
kafka·零拷贝·消息中间件
最笨的羊羊5 小时前
Flink CDC系列之:Kafka Debezium JSON 序列化器的实现DebeziumJsonSerializationSchema
kafka·debezium·schema·flink cdc系列·serialization·序列化器·debezium json
苏州知芯传感5 小时前
环境智能的触角:MEMS微振镜赋能分布式光纤传感网络
网络·分布式·3d·mems·激光·微振镜
小坏讲微服务6 小时前
Spring Boot 4.0 与 Spring Cloud Alibaba 2025 整合完整指南
java·spring boot·分布式·后端·spring cloud·微服务·架构
数智化架构师-Aloong10 小时前
⚡️ PowerJob深度解析:Java生态下高并发分布式调度的终极选择
java·开发语言·分布式·系统架构
a***592611 小时前
RabbitMQ高级特性----生产者确认机制
分布式·rabbitmq
LDG_AGI12 小时前
【推荐系统】深度学习训练框架(六):PyTorch DDP(DistributedDataParallel)数据并行分布式深度学习原理
人工智能·pytorch·分布式·python·深度学习·算法·spark
BD_Marathon13 小时前
【Zookeeper】Zookeeper内部的数据模型
linux·分布式·zookeeper