kafka负载均衡迁移(通过kafka eagle)

在grafana监控中发现kafka的各个节点磁盘不均匀

出现这样的情况是因为kafka默认是以文件数作为平衡的条件的。换句话说,kafka不会管一个副本有多大,只会看磁盘中有多少个副本文件。

解决方式:

1、修改策略,改为按照磁盘大小平衡数据

2、手动迁移数据,将磁盘使用率高的节点数据迁移到磁盘使用率低的节点

本文介绍第二种方式,手动迁移数据。

1 进入磁盘使用率高的机器/kafka-logs,通过du -h找一个数据量大的topic:这里以my_topic为例

2 去kafka eagle中查看该topic的副本分布情况

2.1、登录kafka eagle
2.2、点击左侧Topics中的hub,查找对应的topic
2.3、把 Current Partition Replica Assignment中的数据拷贝到文本编辑器中

3 查看监控 ,去使用率高的机器的对应磁盘中找到my_topic的副本

3.1、进入磁盘使用率高的那台机器,在kafka-logs 中,使用命令:du -h |grep my_topic

可以看到副本的大小,以及对应的分区 例如my_topic_4 10G

3.2、在2.3的分区分布情况文件中,查找4分区对应的情况

通过vim /kafka-logs/meta.properties查看本台机器的kafkaid为:1001

再次查看grafana监控,查看最低磁盘使用率的机器是哪一个,查看他的kafkaid(/kafka-logs/meta.properties中)

3.3、将4号分区的1001修改为1004

4 将使用率多的机器中的副本修改为使用率少的kafkaid之后,把修改后的kafka分区文件放到 Proposed Partition Reassignment Configuartion中

然后点击上方的execute按钮

5 可通过点击Verify按钮后,在下方的Result中看到副本迁移的进度

5.1 、也可通过zookeeper中的元数据查看迁移任务是否已经完成

命令:sh /usr/hdp/current/kafka-broker/bin/kafka-topics.sh --zookeeper hk-hdfs-util:2181 hk-hdfs-master01:2181 hk-hdfs-master02:2181 --topic my_topic --describe

相关推荐
Stone_OverLooking1 小时前
Qt6.5.3 mingw64 Ninja编译oracle oci驱动
数据库·qt·oracle
Java爱好狂.1 小时前
如何用JAVA技术设计一个高并发系统?
java·数据库·高并发·架构设计·java面试·java架构师·java八股文
慌糖1 小时前
读书笔记之MySQL的字符集与比较规则小读
数据库
码农很忙1 小时前
从0到1搭建智能分析OBS埋点数据的AI Agent:实战指南
数据库·人工智能
安当加密2 小时前
Oracle数据库透明加密实践:基于TDE架构的安全加固方案
数据库·oracle·架构
织元Zmetaboard2 小时前
什么是态势感知大屏?
网络·数据库
NineData2 小时前
NineData 支持 DB2 迁移到 PolarDB Oracle
数据库·oracle·ninedata·数据库迁移·数据库迁移工具·信创改造·智能数据管理平台
Saniffer_SH2 小时前
【每日一题】讲讲PCIe链路训练和枚举的前后关系
运维·服务器·网络·数据库·驱动开发·fpga开发·硬件工程
倔强的石头_2 小时前
金融行业数据库选型盘点——Kingbase PLSQL迁移指南
数据库
梓沂2 小时前
解决项目容器启动时MySQL端口检测的问题
数据库·mysql