kafka在线增加分区副本数

1、问题来源

线上有一个物联网项目依赖kafka集群中指定主题消费,前些天kafka集群中的某一台机器出现了故障,导致kafka这个主题的数据一直无法消费,经查发现为了保证消息的顺序性此主题仅设置了一个分区,但是副本也仅有一个,这样就导致生产端的ack设置成all也无法保证消息的丢失。为保证即使有一个节点宕机kafka服务也能正常进行,须增加此主题的分区副本数为broker数

2、解决方案

两个方案:

  1. 通过删掉主题再新增时设置分区的副本数

  2. 通过kafka服务端提供的工具来增加副本数

由于有多个消费者组都订阅了此主题,第一种方案会造成还偏移量还未达到最新的数据就彻底丢失了,故还是选择第二种方案

3、最终方案

  1. 先登录kafka集群中任意一台机器,进入到kafka的HOME目录

  2. 编写 t.json

java 复制代码
{"version":1,"partitions":[{"topic":"主题名称","partition":0,"replicas":[0,2,1]}]}
  1. 执行命令
bash 复制代码
./bin/kafka-reassign-partitions.sh --bootstrap-server kafka节点IP:9092 --execute --reassignment-json-file t.json

当shell终端返回下面的提示就表示操作成功

Successfully started partition reassignment for 主题名-0

4、检查主题的副本数

执行下面的命令可以查看

bash 复制代码
./bin/kafka-topics.sh --bootstrap-server kafka节点IP:9092 --describe --topic 主题名称

至此问题得到解决

相关推荐
Monly211 小时前
RabbitMQ:数据隔离
分布式·rabbitmq
萧鼎5 小时前
Python pyzmq 库详解:从入门到高性能分布式通信
开发语言·分布式·python
纪莫6 小时前
Kafka如何保证「消息不丢失」,「顺序传输」,「不重复消费」,以及为什么会发送重平衡(reblanace)
kafka
卡拉叽里呱啦8 小时前
缓存-变更事件捕捉、更新策略、本地缓存和热key问题
分布式·后端·缓存
BD_Marathon10 小时前
Kafka文件存储机制
分布式·kafka
哈哈很哈哈11 小时前
Spark 运行流程核心组件(三)任务执行
大数据·分布式·spark
jakeswang17 小时前
应用缓存不止是Redis!——亿级流量系统架构设计系列
redis·分布式·后端·缓存
Aspirin_Slash18 小时前
docker-compose部署kafka with kraft 配置内网公网同时访问
kafka
君不见,青丝成雪19 小时前
大数据技术栈 —— Redis与Kafka
数据库·redis·kafka
不久之19 小时前
大数据服务完全分布式部署- 其他组件(阿里云版)
分布式·阿里云·云计算